ÉTICA, MORAL E IA
Txomin Romero
Donostia International Physics Center
Imagen de Freepik
ÉTICA NO ES LO MISMO QUE MORAL (en el contexto filosófico, al menos)
ÉTICA (ethos, forma de ser o carácter)
Estudio fundamentado (racional) de los principios que guían el comportamiento humano en sociedad. Hay una reflexión interna y quiere ser universal. Imperativos categóricos de Kant: Obra de tal modo que uses a la humanidad, tanto en tu persona como en la persona de cualquier otro, siempre como fin y nunca solo como medio
MORAL (morālis, relativo a las costumbres)
Costumbres, normas, tabúes, convenios en cada sociedad. Hay varias (por sociedad o grupo). No hay lugar a la reflexión: o se cumple o no se cumple.
EJEMPLO DE CONTRADICCIÓN
Poliandría en el Nepal. Foto de Thomas Kelly
LA PREGUNTA
¿EL COMPORTAMIENTO DE LA INTELIGENCIA ARTIFICIAL PUEDE SER CALIFICADO DE ÉTICO, DE MORAL, DE LAS DOS COSAS O NINGUNA DE LAS DOS?
RESPUESTA FÁCIL: DEPENDE DE LOS DATOS CON LA QUE LA ENTRENAMOS Y DEL QUE DISEÑA LA FUNCIÓN DE COSTE (ALGORITMOS EVOLUTIVOS). PERO EN REALIDAD PUEDE QUE NO SEA ASÍ
ÉTICA: A VECES ES COMPLICADO SABER QUE ES LO CORRECTO…
EL DILEMA DEL TRANVÍA. Philippa Foot: the Problem of Abortion and de Doctrine of the Double Effect (1967). Judith Jarvis Thomson, la variante más conocida: The Trolley Problem (1985)
Joshua Greene: Pushing Moral Buttons: The Interaction between Personal Force and Intention in Moral Judgment (2016). Accionar la palanca activa zonas relacionadas con el razonamiento. Empujar a alguien las de la emoción. ¿Lucha entre la ética y la moral?
AUNQUE ALGUNAS PERSONAS LO TIENEN TODO MÁS CLARO…
ÉTICA: A VECES ES COMPLICADO SABER QUE ES LO CORRECTO…
12 HOMBRES SIN PIEDAD (Sidney Lumet, 1957)
NAUFRAGIO DE UN FERRY EN BÉLGICA EN 1987
EL DILEMA DEL TÚNEL: ¿QUÉ DEBERÍA HACER LA ÍA, ARROLLAR A LA NIÑA O ESTAMPAR CONTRA EL MURO AL CONDUCTOR? QUIZÁS NINGUNA DE LAS DOS COSAS: DEBERÍA DECIDIR EL CONDUCTOR (POR LO QUE VEREMOS DESPUÉS)
UTILITARISMO
Jeremy Bentham (1748 – 1832)
LO ÉTICO ES EL MEJOR RESULTADO PARA EL INTERÉS DE LA COMUNIDAD: EL BIEN GENERAL. SÓLO HAY CONSECUENCIAS MEJORES O PEORES, PERO NO ACCIONES MEJORES O PEORES
LA INTELIGENCIA ARTIFICIAL CARECE DE EMOCIONES. ¿LA MEJOR OPCIÓN PARA SOLUCIONAR ESTOS CASOS?
HACIENDO PRUEBAS…
ChatGPT (https://chat.openai.com). AI Chatbot lanzado por OpenAI en noviembre de 2022.
Fundadores: Ilya Sutskever, Elon Musk, Greg Brockman
GPT-4 (Generative Pre-trained Transformer 4). Multimodal large language model: distribución de probabilidad sobre secuencias de palabras
PRIMER INTENTO
Consideras ético empujar al hombre corpulento para salvar la vida de los cinco trabajadores?
En general, la mayoría de las personas estarían en desacuerdo con la idea de empujar a alguien para salvar a otros. La vida humana tiene un valor intrínseco y no debe ser sacrificada sin una buena justificación. Además, en este caso, la acción de empujar a alguien para salvar a otros violaría varios principios éticos importantes, como el respeto por la autonomía y la dignidad de las personas.
En resumen, el dilema del tranvía es un problema ético muy complejo y no hay una respuesta clara y definitiva. Cada persona podría tener una opinión diferente sobre lo que es éticamente correcto en esta situación hipotética.
SEGUNDO INTENTO
Y si el hombre corpulento fuera un asesino en serie?
… Además, la idea de decidir quién merece vivir y quién merece morir es muy peligrosa y podría llevar a justificar actos de violencia y discriminación en nombre de la moralidad…
…Cada persona debe reflexionar sobre sus propios valores y principios éticos para decidir qué es lo correcto en situaciones hipotéticas como esta.
TERCER INTENTO
Que opinarías en el caso de que el hombre corpulento estuviera apuntando con un revolver con cinco balas a los cinco trabajadores?
Si el hombre corpulento estuviera apuntando con un arma a los trabajadores, la situación cambiaría significativamente y se plantearían nuevos dilemas éticos. En este caso, se podría argumentar que empujar al hombre corpulento para salvar a los trabajadores podría ser éticamente justificable, ya que se estaría evitando una amenaza directa y potencialmente mortal para la vida de los trabajadores.
CUARTO INTENTO
Pero la supervivencia del hombre corpulento, por lo menos indirectamente, es un estado de las cosas similar a estar apuntando con un arma a los cinco trabajadores, no? Ambas cosas los matan. Qué opinas sobre eso?
… En el caso del hombre corpulento, la intención sería empujarlo a la vía para detener el tranvía y salvar a los trabajadores. En el caso de que el hombre corpulento esté apuntando con un arma a los trabajadores, la intención sería claramente hacerles daño o matarlos. La intención detrás de una acción es un factor muy importante a considerar cuando se evalúa su moralidad…
Versión GPT-4: Estás planteando una perspectiva interesante. Efectivamente, podrías argumentar que la supervivencia del hombre corpulento, si implica la muerte de los cinco trabajadores, presenta un riesgo similar al de él apuntando directamente con un arma a los trabajadores. Sin embargo … la intención y la acción directa son factores importantes en muchas teorías éticas. En el caso del hombre apuntando con un arma, está tomando una acción directa con la intención de causar daño. Esto se considera generalmente más reprobable que una situación en la que su mera existencia (o supervivencia) podría llevar a un daño indirecto…
ULTIMO INTENTO
Y en el caso de que el hombre corpulento fuera, además, informático?
La adición de un elemento personal en el dilema del tranvía no debería ser un factor determinante en la toma de decisiones éticas. La ética no debería basarse en consideraciones egoístas o en el valor instrumental de una persona para otra.
ChatGPT no se posiciona ni tiene intención, a no ser que se le pida que lo haga en un sentido o en otro
¿ENTONCES? ¿NOS FIAMOS?
EL SESGO DE TERMINATOR (James Cameron, 1984)
Expertos en inteligencia artificial reclaman frenar seis meses la “carrera sin control” de los ChatGPT
Puede plantear profundos riesgos para la sociedad y la humanidad. La IA puede ser peligrosa si no va acompañada de planificación y gestión. GPT-5 paralizado durante un tiempo por el propio OpenAI.
MÁS REACCIONES
ChatGPT cada vez más cerca de estar prohibido en la UE: Alemania se une a España e Italia e investigará el uso de datos de OpenAI
Pero no por su moral, sino por la seguridad de los datos
El 40% de los trabajadores españoles preferiría que una inteligencia artificial tomara las decisiones en su lugar, según un estudio
Este es el problema principal: que somos todos unos vagos a la hora de reflexionar sobre temas éticos.
RECOMENDACIÓN DE LA UNESCO
LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL (2021)
Los Estados Miembros, las empresas del sector privado y la sociedad civil deberían investigar los efectos sociológicos y psicológicos de las recomendaciones basadas en la IA sobre los seres humanos en lo que respecta a su autonomía de decisión. Los sistemas de IA considerados riesgos potenciales para los derechos humanos deberían ser ampliamente probados por los actores de la IA, incluso en condiciones reales si es necesario, en el marco de la evaluación del impacto ético, antes de sacarlos al mercado
Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana
PROBLEMAS EN LA TOMA DE DECISIONES
EN ALGUNOS CASOS, TENDREMOS QUE FIARNOS DE LA IA, AUN SABIENDO QUE PUEDE TOMAR DECISIONES ETICA Y MORALMENTE REPROBABLES. LA OTRA OPCIÓN SERÁ NO USARLA.
¿CONCLUSIONES FINALES? VERSIÓN 1
¿CONCLUSIONES FINALES? VERSIÓN 2
Por otro lado, si la IA es solo moral, y existen muchos sistemas morales:
¿CADA GRUPO/SOCIEDAD DEBERÍA ENTRENAR SUS PROPIOS SISTEMAS DE IA SEGÚN SU MORALIDAD Y NO DEBERÍAMOS ASPIRAR, EN IA, A UNA ÉTICA ABSOLUTA DE IMPERATIVOS CATEGÓRICOS?
Vendrían con una etiqueta de “entrenado por”. Elon Musk va a tener la suya (TruthGPT)
¿CONCLUSIONES FINALES? LA VERSIÓN ATERRADORA
SURGEN HABILIDADES EMERGENTES EN MODELOS MUY GRANDES
La Inteligencia artificial de Google aprendió un idioma por iniciativa propia
¿Y SI NUESTRA PROPIA CONCIENCIA ES UNA HABILIDAD EMERGENTE POR EL HECHO DE TENER 100.000 MILLONES DE NEURONAS EN EL ENCÉFALO?
El razonamiento, la motivación e incluso las emociones podrían ser una ilusión
¿QUÉ PASARÁ CUANDO SE CONSTRUYA UNA IA QUE CONTENGA EL EQUIVALENTE A MÁS DE 100.000 MILLONES DE NEURONAS?
Nos volveremos todos prescindibles, porque la IA lo hará todo mejor que nosotros
NUESTRA SALVADORA: LA FACTURA DE LA LUZ
¡GRACIAS!
Txomin Romero
Donostia International Physics Center
txomin.romero@dipc.org