Pg.- /
Prepint DOI (Es)10.6084/m9.figshare.11130992
Prepint DOI (Es-Eng) & Peer Review 10.13140/RG.2.2.11245.54248
🇪🇸 La inteligencia artificial como ente jurídico y su responsabilidad civil en el seno de Europa | Capítulo 9.4 | 🇬🇧 Artificial intelligence as a legal entity and its civil responsibility within Europe | Chapter 9.4 |
🇪🇸 Figura. I A. C9.4-1- Personalidad electrónica o jurídica de la robótica: ¿una ficción? (Crédito Imagen: de Chetraruc en Pixabay). URL: https://cdn.pixabay.com/photo/2017/05/21/18/53/artificial-intelligence-2332004_960_720.jpg | 🇬🇧 Figure. I A. C9.4-1- Electronic or legal personality of robotics: a fiction? (Credit Image: from Chetraruc en Pixabay). URL: https://cdn.pixabay.com/photo/2017/05/21/18/53/artificial-intelligence-2332004_960_720.jpg |
Autor: Juan Antonio Lloret Egea. Miembro de Escrito: 25/11/2019 | Actualizado: 25/11/2019 | Author:Juan Antonio Lloret Egea. Member Written: 25/11/2019 | Updated: 25/11/2019 |
🇪🇸 Índice | 🇬🇧 Index |
9.4.1.- Introducción o Resumen | 9.4.1.- Introduction or Abstract |
9.4.2.- Executive Report Summary | |
9.4.3.- 10 elementos que el informe nos arroja como ‘hallazgos’ | 9.4.3.- 10 elements that the report throws at us as ‘findings’ |
9.4.5.- Conclusión |
➤¿Hemos de considerar a este informe de los expertos europeos como una referencia en las políticas de la UE futuras? | ➤Should we consider this report of European experts as a reference in future EU policies? |
9.4.3.- ➤ 🇪🇸 10 elementos que el informe nos arroja como ‘hallazgos’ . | 9.4.3.- ➤ 🇬🇧 10 elements that the report throws at us as ‘findings’. |
|
|
9.4.5.- 🇪🇸 ConclusiónMuchos eran los informes que en la era nuclear indicaban que la probabilidad de un accidente relacionado con esta tecnología atómica era ínfima y casi despreciable. Hasta que la realidad se impuso de forma descarada, error humano tras error humano, y de forma ex post hemos corregido aquellas extrañas decisiones apresuradas. La mayor de las veces alejándonos de esta tecnología. Es tiempo de aprender de las experiencias del pasado y no aligerar el paso. “12 de diciembre de 1952.- El primer accidente nuclear serio tiene lugar en la planta de Chalk River, en Ottawa (Canadá), al fundirse parcialmente el núcleo, sin causar daños personales. En mayo de 1958, un incendio en esa planta produjo una fuga radiactiva” [C9.4.-2] . “En la historia de la energía nuclear ha habido numerosos incidentes. Los considerados más graves teniendo en cuenta la Escala Internacional de Eventos Nucleares (INES) han sido el producido en la central de Three Mile Island, en Pensilvania (EE UU), en 1979 y el de Chernóbil, en 1986, el peor accidente nuclear de la historia hasta ahora. Ambos se produjeron por fallos humanos. En España, el accidente más grave ha sido el de la central de Vandellós I, en Tarragona” [C9.4.-2]. Pero en el otro extremo las inquietudes lógicas de otros (sobre una hipotética personalidad electrónica) consideran que ésta pudiera servir como coraza o salvaguarda para exonerar de la responsabilidad real a las personas; y hacerlas inmunes ante la justicia, culpando en última instancia de hechos punibles a las máquinas y no a los hombres. En este sentido nos encontramos, por ejemplo, con “OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS” y su rechazo a la personalidad robótica: “La creación de un estado legal de una ‘persona electrónica’ para robots ‘autónomos’, ‘impredecibles’ y de ‘autoaprendizaje’ se justifica por la afirmación incorrecta de que la responsabilidad por daños sería imposible de probar”. [C9.4.-3] Y también ante la opinión contraria y experta del profesor Griseri: “Dar derechos a los robots es una idea peligrosa”. [C9.4.-4] Por lo tanto nos encontramos ante un puzle que hay que resolver… y las piezas están ahora encima de la mesa y necesariamente hay que manejarlas. La pregunta final pudiera ser ésta: ¿Cuántos grados de libertad tenemos realmente para afrontar decisiones humanas afectadas por el pasado e influenciadas por un futuro incierto? Ante esa pregunta mía, mi respuesta coincide con los expertos: “No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes “. Pero coincide sólo de momento, porque también considero que la realidad de la inteligencia artificial actualmente está más próxima a la ciencia ficción que a lo verídico propiamente. El grado de alerta nuestro es importante. | 9.4.5.- 🇬🇧 ConclusionMany were the reports that in the nuclear era indicated that the probability of an incident related to this atomic technology was negligible and almost negligible. Until reality was imposed shamelessly, human error after human error, and in an ex post way we have corrected those strange rushed decisions. Most of the time moving away from this technology. It is time to learn from past experiences and not lighten the pace. “December 12, 1952.- The first serious nuclear accident takes place at the Chalk River plant in Ottawa (Canada), when the core melted, without causing personal injury. In May 1958, a fire at that plant produced a radioactive leak ”[C9.4.-2]. “In the history of nuclear energy there have been numerous incidents. Those considered more serious considering the International Nuclear Events Scale (INES) have been produced at the Three Mile Island plant in Pennsylvania (USA) in 1979 and at Chernobyl in 1986, the worst nuclear accident in The story so far. Both were caused by human failures. In Spain, the most serious accident was that of the Vandellós I plant in Tarragona ”[C9.4.-2]. But at the other extreme, the logical concerns of others (about a hypothetical electronic personality) consider that it could serve as a shell or safeguard to exonerate people from real responsibility; and make them imun before justice, ultimately blaming acts punishable by machines and not by men. In this sense we find, for example, with “OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS” and its rejection of the robotic personality: “The creation of a legal status of an 'electronic person' for 'autonomous' robots, ‘unpredictable’ and ‘self-learning’ is justified by the incorrect claim that liability for damages would be impossible to prove.'[C9.4.-3] And also to the contrary and expert opinion of Professor Griseri: “Giving rights to robots is a dangerous idea”. [C9.4.-4] Therefore we are faced with a puzzle that must be solved... and the pieces are now on the table and must necessarily be handled. The final question could be this: How many degrees of freedom do we really have to face human decisions affected by the past and influenced by an uncertain future? Before that question of mine, my answer coincides with the experts: "It is not necessary to give the autonomous devices or systems a legal personality, since the damage they can cause can and should be attributable to existing people or organizations." But it coincides only for the moment, because I also consider that the reality of artificial intelligence is currently closer to science fiction than to the truth itself. The degree of our alert is important. |
🇪🇸 Figura. I A. C9.4-2- Responsabilidad por la inteligencia artificial y otras tecnologías digitales emergentes (2019). Informe del Grupo de expertos sobre responsabilidad y nuevas tecnologías - Formación de nuevas tecnologías. (Crédito Imagen: Cover photograph: Gettyimages - vchal/metamorworks/zhudifeng;/scanrail/PhonlamaiPhoto/grinvalds/PhonlamaiPhoto/South_agency). URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 | 🇬🇧 Figure. I A. C9.4-2- Liability for Artificial Intelligence and other emerging digital technologies (2019). Report from the Expert Group on Liability and New Technologies – New Technologies Formation. (Credit Image: Cover photograph: Gettyimages - vchal/metamorworks/zhudifeng;/scanrail/PhonlamaiPhoto/grinvalds/PhonlamaiPhoto/South_agency). URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 |
🇪🇸 Citar | 🇬🇧 Cite
Lloret Egea, Juan Antonio (2019): La inteligencia artificial como ente jurídico y su responsabilidad civil en el seno de Europa | Artificial intelligence as a legal entity and its civil responsibility within Europe. figshare. Preprint. https://doi.org/10.6084/m9.figshare.11130992.v3
🇪🇸 Bibliografía | 🇬🇧 Bibliography |
[C9.4.-1]. Liability for Artificial Intelligence and other emerging digital technologies (2019). Report from the Expert Group on Liability and New Technologies – New Technologies Formation. [Recuperado (25/11/2019) de https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608] [C9.4.-2]. Los accidentes nucleares más graves de la historia. (2011). El País (agencias). [Recuperado (25/11/2019) de https://elpais.com/internacional/2011/03/12/actualidad/1299884412_850215.html] [C9.4.-3]. OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS. [Recuperado (25/11/2019) de http://www.robotics-openletter.eu/] [C9.4.-4]. Griseri, P. (2017). Giving rights to robots is a dangerous idea. The Guardian. [Recuperado (25/11/2019) de https://www.theguardian.com/technology/2017/jan/16/giving-rights-to-robots-is-a-dangerous-idea] |