Pg.- /

Prepint DOI  (Es)10.6084/m9.figshare.11130992

Prepint DOI (Es-Eng) & Peer Review 10.13140/RG.2.2.11245.54248

🇪🇸

La inteligencia artificial como ente jurídico y su responsabilidad civil en el seno de Europa | Capítulo  9.4

🇬🇧

Artificial intelligence as a legal entity and its civil responsibility within Europe | Chapter 9.4 


🇪🇸 Figura. I A. C9.4-1- Personalidad electrónica o jurídica de la robótica: ¿una ficción?  (Crédito Imagen: de Chetraruc en Pixabay). URL: https://cdn.pixabay.com/photo/2017/05/21/18/53/artificial-intelligence-2332004_960_720.jpg

🇬🇧 Figure. I A. C9.4-1- Electronic or legal personality of robotics: a fiction?  (Credit Image: from Chetraruc en Pixabay). URL: https://cdn.pixabay.com/photo/2017/05/21/18/53/artificial-intelligence-2332004_960_720.jpg

 ORCID iD iconAutor: Juan Antonio Lloret Egea. Miembro de  eu-ai-alliance-3_0.png

Escrito: 25/11/2019 | Actualizado: 25/11/2019

ORCID iD icon  Author:Juan Antonio Lloret Egea. Member eu-ai-alliance-3_0.png

Written: 25/11/2019 | Updated: 25/11/2019

🇪🇸 Índice

🇬🇧 Index

9.4.1.- Introducción o  Resumen

9.4.1.- Introduction or Abstract

9.4.2.- Resumen ejecutivo del informe

9.4.2.- Executive Report Summary

9.4.3.- 10 elementos que el informe nos arroja como ‘hallazgos

9.4.3.- 10 elements that the report throws at us as ‘findings’

9.4.4.- Fondos de compensación

9.4.4.- Compensation funds

9.4.5.- Conclusión

9.4.5.- Conclusion

9.4.1.- 🇪🇸 Introducción o  Resumen

9.4.1.- 🇬🇧 Introduction or Abstract

La responsabilidad civil, y también la penal, en la inteligencia artificial envuelve aspectos técnicos y legislativos complejos; y es abono de discusiones y problemas futuros en el marco de la UE y a nivel mundial. La discusión ex ante es necesaria para la ciudadanía europea y los estamentos envueltos a presente y a futuro. La sensibilidad y la solidaridad (y también los derechos y obligaciones) de nuestra sociedad hay que activarlas ahora, y avisar de su despiste y de su letargo; una sociedad que está saturada de información que nos provoca serias ausencias en los foros latentes del debate europeo. En aras de contribuir al análisis sobre la necesidad de definir a la Inteligencia Artificial (IA) como una entidad con personalidad jurídica, o ente jurídico, y la responsabilidad posterior que con llevaría tal decisión, extractamos y analizaremos elementos que consideramos importantes del Informe del Grupo de Expertos en Responsabilidad y Nuevas Tecnologías – Formación de Nuevas Tecnologías. 2019… Y nos resulta muy relevante especialmente uno de los ‘hallazgos’ del informe, denominado Liability for Artificial Intelligence and other emerging digital technologies: “No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes”. [C9.4.-1]

Civil, and also criminal, responsibility in artificial intelligence involves complex technical and legislative aspects; and it is a fertilizer for future discussions and problems within the framework of the EU and worldwide. The ex ante discussion is necessary for European citizenship and the estates involved in the present and future. The sensitivity and solidarity (and also the rights and obligations) of our society must be activated now, and warn of its lack of confidence and lethargy; a society that is saturated with information that causes us serious absences in the latent forums of the European debate. In order to contribute to the analysis of the need to define Artificial Intelligence (AI) as an entity with legal personality, or legal entity, and the subsequent responsibility that would lead to such a decision, we extract and analyze elements that we consider important in the Group Report of Experts in Responsibility and New Technologies - Training of New Technologies. 2019 ... And we find it very relevant especially one of the 'findings' of the report, called Liability for Artificial Intelligence and other emerging digital technologies: “It is not necessary to give autonomous devices or systems a legal personality, since the damage they can cause It can and should be attributable to existing people or organizations”.[C9.4.-1]

➤¿Hemos de considerar a este informe de los expertos europeos como una referencia en las políticas de la UE futuras?

➤Should we consider this report of European experts as a reference in future EU policies?

9.4.2.- 🇪🇸 Resumen ejecutivo del informe

[Advertencia]: nótese que la redacción del informe en origen es en inglés, y que por tanto la traducción nuestra ha de considerarse sólo a modo de información para propiciar el debate y la reflexión. Y no supone, ni representa, lo que dice el informe].

La inteligencia artificial y otras tecnologías digitales emergentes, como el Internet de las cosas o las tecnologías de contabilidad distribuida, tienen el potencial de transformar nuestras sociedades y economías para mejor. Sin embargo, su despliegue debe venir con suficientes garantías, para minimizar el riesgo de daño que estas tecnologías pueden causar, como lesiones corporales u otros daños. En la UE, las normas de seguridad del producto, aseguran que este sea el caso.

Sin embargo tales regulaciones no pueden excluir completamente la posibilidad de daños resultantes del funcionamiento de estas tecnologías. Si esto sucede, las víctimas buscarán una compensación. Por lo general, lo hacen sobre la base de los regímenes de responsabilidad civil de derecho privado, en particular el derecho extracontractual, posiblemente en combinación con el seguro. Sólo la responsabilidad estricta de los productores por productos defectuosos, que constituye una pequeña parte de este tipo de regímenes de responsabilidad, está armonizada a nivel de la UE por la Directiva de Responsabilidad del Producto, mientras que todos los demás regímenes, aparte de algunas excepciones en sectores específicos o bajo legislación especial, están regulados por los propios Estados miembros.

En su evaluación de los regímenes de responsabilidad existentes a raíz de las tecnologías digitales emergentes, la Formación de Nuevas Tecnologías del Grupo de Expertos ha concluido que los regímenes de responsabilidad vigentes en los Estados miembros garantizan al menos la protección básica de las víctimas cuyo daño es causado por la operación de tales nuevas tecnologías.

Sin embargo, las características específicas de estas tecnologías y sus aplicaciones, incluida la complejidad, la modificación a través de actualizaciones o el autoaprendizaje durante la operación, la previsibilidad limitada y la vulnerabilidad a las amenazas de ciberseguridad, pueden hacer que sea más difícil ofrecer a estas víctimas un reclamo de indemnización en todos los casos donde esto parece justificado. También puede darse el caso de que la asignación de responsabilidad sea injusta o ineficiente. Para rectificar esto, es necesario realizar ciertos ajustes en los regímenes de responsabilidad nacional y de la UE.

A continuación se enumeran los hallazgos más importantes de este informe sobre cómo deben diseñarse los regímenes de responsabilidad civil y, cuando sea necesario, modificarse, a fin de enfrentar los desafíos que las tecnologías digitales emergentes traen consigo.

9.4.2.- 🇬🇧 Executive Report Summary

[Warning]: Note that the writing of the report at source is in English, and therefore our translation must be considered only as an information to facilitate debate and reflection. And it does not imply, nor represent, what the report says].

Artificial intelligence and other emerging digital technologies, such as the Internet of things or distributed accounting technologies, have the potential to transform our societies and economies for the better. However, their deployment must come with sufficient guarantees, to minimize the risk of damage that these technologies can cause, such as bodily injury or other damage. In the EU, product safety standards ensure that this is the case.

However, such regulations cannot completely exclude the possibility of damage resulting from the operation of these technologies. If this happens, victims will seek compensation. They usually do so on the basis of private liability civil liability regimes, in particular extra-contractual law, possibly in combination with insurance. Only the strict liability of producers for defective products, which constitutes a small part of this type of liability regimes, is harmonized at EU level by the Product Liability Directive, while all other regimes, apart from some exceptions in specific sectors or under special legislation, they are regulated by the Member States themselves.

In its assessment of existing liability regimes following emerging digital technologies, the New Technology Formation of the Group of Experts has concluded that the liability regimes in force in the Member States guarantee at least the basic protection of victims whose damage is caused by the operation of such new technologies.

However, the specific characteristics of these technologies and their applications, including complexity, modification through updates or self-learning during operation, limited predictability and vulnerability to cybersecurity threats, may make it more difficult to offer These victims claim compensation in all cases where this seems justified. It may also be the case that the assignment of responsibility is unfair or inefficient. To rectify this, it is necessary to make certain adjustments in the national and EU liability regimes.

Listed below are the most important findings of this report on how civil liability regimes should be designed and, when necessary, modified, in order to meet the challenges that emerging digital technologies bring.

9.4.3.- ➤ 🇪🇸  10 elementos que el informe nos arroja como ‘hallazgos’ .

9.4.3.- ➤ 🇬🇧 10 elements that the report throws at us as ‘findings’.

  1. Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a otros, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento.
  2. En situaciones donde un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el propietario o usuario de un producto o servicio real equipado con IA, esto debe tenerse en cuenta para determinar quién opera principalmente la tecnología.
  3. A una persona que utiliza una tecnología que no representa un mayor riesgo de daño para los demás se le debe exigir que cumpla con los deberes de seleccionar, operar, monitorear y mantener adecuadamente la tecnología en uso y, en su defecto, debe ser responsable por el incumplimiento de dichos deberes. si tiene la culpa
  4. Una persona que utiliza una tecnología que tiene un cierto grado de autonomía no debería ser menos responsable del daño resultante que si dicho daño hubiera sido causado por un auxiliar humano.
  5. Los fabricantes de productos o contenido digital que incorporen tecnología digital emergente deberían ser responsables de los daños causados ​​por defectos en sus productos, incluso si el defecto fue causado por cambios realizados en el producto bajo el control del productor después de haber sido comercializado.
  6. Para situaciones que exponen a terceros a un mayor riesgo de daños, el seguro de responsabilidad civil obligatoria podría brindar a las víctimas un mejor acceso a la indemnización y proteger a los posibles torturadores contra el riesgo de responsabilidad.
  7. Cuando una tecnología en particular aumenta las dificultades para demostrar la existencia de un elemento de responsabilidad más allá de lo que se puede esperar razonablemente, las víctimas deben tener derecho a la facilitación de la prueba.
  8. Las tecnologías digitales emergentes deben venir con funciones de registro, cuando sea apropiado en las circunstancias, y la falta de registro, o de proporcionar un acceso razonable a los datos registrados, debe dar lugar a una inversión de la carga de la prueba para no perjudicar a la víctima.
  9. La destrucción de los datos de la víctima debe considerarse como daño, compensable bajo condiciones específicas.
  10. No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes.

 

  1. A person who operates a permitted technology that, however, carries a greater risk of harm to others, for example, AI-driven robots in public spaces, must be subject to strict liability for damages resulting from its operation.
  2. In situations where a service provider that guarantees the necessary technical framework has a greater degree of control than the owner or user of a real product or service equipped with AI, this should be taken into account to determine who primarily operates the technology.
  3. A person who uses a technology that does not represent a greater risk of harm to others should be required to comply with the duties of selecting, operating, monitoring and properly maintaining the technology in use and, failing that, must be responsible for the breach of said duties. if it's to blame
  4. A person who uses a technology that has a certain degree of autonomy should not be less responsible for the resulting damage than if such damage had been caused by a human assistant.
  5. Manufacturers of products or digital content that incorporate emerging digital technology should be liable for damage caused by defects in their products, even if the defect was caused by changes made to the product under the control of the producer after being marketed.
  6. For situations that expose third parties to a greater risk of damage, compulsory civil liability insurance could provide victims with better access to compensation and protect potential torturers against the risk of liability.
  7. When a particular technology increases the difficulties in demonstrating the existence of an element of responsibility beyond what can reasonably be expected, victims must have the right to facilitate the evidence.
  8. Emerging digital technologies must come with registration functions, when appropriate in the circumstances, and the lack of registration, or providing reasonable access to the recorded data, should result in an inversion of the burden of proof in order not to harm to the victim
  9. The destruction of the victim's data should be considered as damage, compensable under specific conditions.
  10. It is not necessary to give autonomous devices or systems a legal personality, since the damage they can cause can and should be attributable to existing people or organizations.

9.4.4.- 🇪🇸 Fondos de compensación

Los fondos de compensación se pueden usar para proteger a las víctimas de daños que tienen derecho a una compensación de acuerdo con las normas de responsabilidad aplicables, pero cuyas reclamaciones no se pueden satisfacer.

Si los regímenes de responsabilidad descritos anteriormente (responsabilidad estricta del productor y del operador y responsabilidad basada en la culpa del infractor) funcionan correctamente, no hay necesidad de establecer nuevos tipos de fondos de compensación, financiados y operados por el estado u otras instituciones y con el objetivo de compensar a las víctimas por las pérdidas sufridas como resultado de operar tecnologías digitales emergentes.

Sin embargo, es aconsejable garantizar que en las áreas donde se introduce el seguro de responsabilidad civil obligatorio, también existe un fondo de compensación para reparar el daño causado por una tecnología no identificada o no asegurada. El artículo 10 de la Directiva de seguros de automóviles puede servir de modelo para dicho plan.

Como la piratería es una amenaza grave para los usuarios de tecnologías basadas en software y las reglas tradicionales de la ley de responsabilidad civil a menudo pueden resultar insuficientes debido a la incapacidad de la víctima para identificar al torturador, puede ser aconsejable introducir un esquema de compensación sin culpa equivalente al aplicable a las víctimas de delitos violentos, en la medida en que un delito cibernético constituya un delito equivalente a este último.

Por lo tanto, las personas que han sufrido lesiones personales graves como resultado del delito cibernético podrían ser tratadas de la misma manera que las víctimas de delitos violentos.

9.4.4.- 🇬🇧 Compensation funds

Compensation funds may be used to protect victims from damages that are entitled to compensation in accordance with applicable liability rules, but whose claims cannot be satisfied.

 If the liability regimes described above (strict producer and operator responsibility and liability based on the fault of the offender) work correctly, there is no need to establish new types of compensation funds, financed and operated by the state or other institutions and with the objective of compensating victims for losses suffered as a result of operating emerging digital technologies.

However, it is advisable to ensure that in the areas where compulsory civil liability insurance is introduced, there is also a compensation fund to repair the damage caused by an unidentified or uninsured technology. Article 10 of the Automobile Insurance Directive can serve as a model for such a plan.

As piracy is a serious threat to users of software-based technologies and the traditional rules of civil liability law can often be insufficient due to the victim's inability to identify the torturer, it may be advisable to introduce a compensation scheme no fault equivalent to that applicable to victims of violent crimes, to the extent that a cyber crime constitutes a crime equivalent to the latter.

Therefore, people who have suffered serious personal injuries as a result of cybercrime could be treated in the same way as victims of violent crime.

9.4.5.- 🇪🇸 Conclusión

Muchos eran los informes que en la era nuclear indicaban que la probabilidad de un accidente relacionado con esta tecnología atómica era ínfima y casi despreciable. Hasta que la realidad se impuso de forma descarada, error humano tras error humano, y de forma ex post hemos corregido aquellas extrañas decisiones apresuradas. La mayor de las veces alejándonos de esta tecnología. Es tiempo de aprender de las experiencias del pasado y no aligerar el paso.

“12 de diciembre de 1952.- El primer accidente nuclear serio tiene lugar en la planta de Chalk River, en Ottawa (Canadá), al fundirse parcialmente el núcleo, sin causar daños personales. En mayo de 1958, un incendio en esa planta produjo una fuga radiactiva” [C9.4.-2] .

“En la historia de la energía nuclear ha habido numerosos incidentes. Los considerados más graves teniendo en cuenta la Escala Internacional de Eventos Nucleares (INES) han sido el producido en la central de Three Mile Island, en Pensilvania (EE UU), en 1979 y el de Chernóbil, en 1986, el peor accidente nuclear de la historia hasta ahora. Ambos se produjeron por fallos humanos. En España, el accidente más grave ha sido el de la central de Vandellós I, en Tarragona” [C9.4.-2].

Pero en el otro extremo las inquietudes lógicas de otros (sobre una hipotética personalidad electrónica) consideran que ésta pudiera servir como coraza o salvaguarda para exonerar de la responsabilidad real a las personas; y hacerlas inmunes ante la justicia, culpando en última instancia de hechos punibles a las máquinas y no a los hombres. En este sentido nos encontramos, por ejemplo, con “OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS” y su rechazo a la personalidad robótica: “La creación de un estado legal de una ‘persona electrónica’ para robots ‘autónomos’, ‘impredecibles’ y de ‘autoaprendizaje’ se justifica por la afirmación incorrecta de que la responsabilidad por daños sería imposible de probar”. [C9.4.-3] Y también ante la opinión contraria y experta del profesor Griseri: “Dar derechos a los robots es una idea peligrosa”. [C9.4.-4]

Por lo tanto nos encontramos ante un puzle que hay que resolver… y las piezas están ahora encima de la mesa y necesariamente hay que manejarlas. La pregunta final pudiera ser ésta:

¿Cuántos grados de libertad tenemos realmente para afrontar decisiones humanas afectadas por el pasado e influenciadas por un futuro incierto?

Ante esa pregunta mía, mi respuesta coincide con los expertos: “No es necesario dar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes “.

Pero coincide sólo de momento, porque también considero que la realidad de la inteligencia artificial actualmente está más próxima a la ciencia ficción que a lo verídico propiamente. El grado de alerta nuestro es importante.

9.4.5.- 🇬🇧 Conclusion

Many were the reports that in the nuclear era indicated that the probability of an incident related to this atomic technology was negligible and almost negligible. Until reality was imposed shamelessly, human error after human error, and in an ex post way we have corrected those strange rushed decisions. Most of the time moving away from this technology. It is time to learn from past experiences and not lighten the pace.

“December 12, 1952.- The first serious nuclear accident takes place at the Chalk River plant in Ottawa (Canada), when the core melted, without causing personal injury. In May 1958, a fire at that plant produced a radioactive leak ”[C9.4.-2].

“In the history of nuclear energy there have been numerous incidents. Those considered more serious considering the International Nuclear Events Scale (INES) have been produced at the Three Mile Island plant in Pennsylvania (USA) in 1979 and at Chernobyl in 1986, the worst nuclear accident in The story so far. Both were caused by human failures. In Spain, the most serious accident was that of the Vandellós I plant in Tarragona ”[C9.4.-2].

But at the other extreme, the logical concerns of others (about a hypothetical electronic personality) consider that it could serve as a shell or safeguard to exonerate people from real responsibility; and make them imun before justice, ultimately blaming acts punishable by machines and not by men. In this sense we find, for example, with “OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS” and its rejection of the robotic personality: “The creation of a legal status of an 'electronic person' for 'autonomous' robots, ‘unpredictable’ and ‘self-learning’ is justified by the incorrect claim that liability for damages would be impossible to prove.'[C9.4.-3] And also to the contrary and expert opinion of Professor Griseri: “Giving rights to robots is a dangerous idea”. [C9.4.-4]

Therefore we are faced with a puzzle that must be solved... and the pieces are now on the table and must necessarily be handled. The final question could be this:

How many degrees of freedom do we really have to face human decisions affected by the past and influenced by an uncertain future?

Before that question of mine, my answer coincides with the experts: "It is not necessary to give the autonomous devices or systems a legal personality, since the damage they can cause can and should be attributable to existing people or organizations."

But it coincides only for the moment, because I also consider that the reality of artificial intelligence is currently closer to science fiction than to the truth itself. The degree of our alert is important.

🇪🇸 Figura. I A. C9.4-2- Responsabilidad por la inteligencia artificial y otras tecnologías digitales emergentes (2019). Informe del Grupo de expertos sobre responsabilidad y nuevas tecnologías - Formación de nuevas tecnologías. (Crédito Imagen: Cover photograph: Gettyimages - vchal/metamorworks/zhudifeng;/scanrail/PhonlamaiPhoto/grinvalds/PhonlamaiPhoto/South_agency). URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 

🇬🇧 Figure. I A. C9.4-2- Liability for Artificial Intelligence and other emerging digital technologies (2019). Report from the Expert Group on Liability and New Technologies – New Technologies Formation. (Credit Image: Cover photograph: Gettyimages - vchal/metamorworks/zhudifeng;/scanrail/PhonlamaiPhoto/grinvalds/PhonlamaiPhoto/South_agency). URL: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608 


🇪🇸 Citar | 🇬🇧  Cite

Lloret Egea, Juan Antonio (2019): La inteligencia artificial como ente jurídico y su responsabilidad civil en el seno de Europa | Artificial intelligence as a legal entity and its civil responsibility within Europe. figshare. Preprint. https://doi.org/10.6084/m9.figshare.11130992.v3


🇪🇸  Bibliografía | 🇬🇧  Bibliography

[C9.4.-1]. Liability for Artificial Intelligence and other emerging digital technologies (2019). Report from the Expert Group on Liability and New Technologies – New Technologies Formation. [Recuperado (25/11/2019) de https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608]

[C9.4.-2]. Los accidentes nucleares más graves de la historia. (2011). El País (agencias). [Recuperado (25/11/2019) de https://elpais.com/internacional/2011/03/12/actualidad/1299884412_850215.html]

[C9.4.-3]. OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS. [Recuperado (25/11/2019) de http://www.robotics-openletter.eu/]

[C9.4.-4]. Griseri, P. (2017). Giving rights to robots is a dangerous idea. The Guardian. [Recuperado (25/11/2019) de https://www.theguardian.com/technology/2017/jan/16/giving-rights-to-robots-is-a-dangerous-idea]