jueves, 30 de junio de 2016

Recomendaciones respecto a normas de Derecho civil sobre robótica


Resumen: Por su actualidad, viabilidad tecnológica y coincidencia con la temática innovadora de este blog, siempre conciliándola con la perspectiva jurídica, se transcribe la Propuesta de Resolución del Parlamento Europeo con recomendaciones destinadas a la Comisión respecto a normas de Derecho civil sobre robótica (2015/2103(INL)). Se han intercalado, claramente identificadas, referencias a artículos publicados en este mismo blog que amplían los conceptos tratados en algunos apartados.

Autor del artículo
Colaboración
Comisión de asuntos jurídicos del Parlamento Europeo

Actualizado

30 de junio de 2016




Índice

1. Introducción
2. Principios generales
3. Responsabilidad
4. Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil
5. Principios éticos
6. Una agencia europea
7. Derechos de propiedad intelectual y flujo de datos
8. Normalización, seguridad y protección
9. Vehículos autónomos
10. Robots asistenciales
11. Robots médicos
12 Rehabilitación e intervenciones en el cuerpo humano
13. Drones (RPAS)
14. Previsiones en el ámbito de la formación y el empleo
15. Responsabilidad
16. Aspectos internacionales
17. Aspectos finales

A.0 Anexo a la Propuesta de Resolución: recomendaciones detalladas respecto al contenido de la propuesta solicitada
A.1 Definición y clasificación de los «robots inteligentes»
A.2 Registro de los «robots inteligentes»
A.3 Responsabilidad civil
A.4 Carta sobre robótica
A.5 Licencia para los diseñadores
A.6 Licencia para los usuarios

E.0 Exposición de motivos
E.1 Antecedentes
E.2 Consideraciones generales
E.3 Fundamento jurídico y subsidiariedad
E.4 Principios generales y éticos
E.5 La normalización, la seguridad y la protección
E.6 Normas para la utilización específica de robots e inteligencia artificial
E.7 Normas sobre responsabilidad
E.8 La robótica y la inteligencia artificial en el ámbito social
E.9 Aspectos internacionales

18. Referencias
19. Derechos de autor



NOTA DEL EDITOR: Estamos acostumbrados a que el Derecho vaya por detrás respecto a los cambios que experimenta la sociedad, especialmente en lo que se refiere a avances tecnológicos. Ello suele ser así para evitar legislar sobre el caso particular y no distorsionar por sistema a la innovación tecnológica. No obstante, en este caso en que tan solo una apreciación informal de riesgos presenta elevados valores respecto a que en un futuro la humanidad no sea dueña de su propio destino si la inteligencia artificial es capaz de superar a la humana, o los cambios socio-económicos que representarían la escasez de empleos reservados a los humanos, es de celebrar que el Parlamento Europeo se adelante mediante recomendaciones que en un futuro pueden devenir en un nuevo marco jurídico para la Unión.

1. Introducción

A.   Considerando que, desde el monstruo de Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por el Golem de Praga o el robot de Karel Čapek —que fue quien acuñó el término—, los seres humanos han fantaseado siempre con la posibilidad de construir máquinas inteligentes, sobre todo androides con características humanas;

B.  Considerando que, ahora que la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial —que va a afectar probablemente a todos los estratos de la sociedad—, resulta de vital importancia que el legislador tenga en cuenta todas las consecuencias que ello entraña;

C.  Considerando que, entre 2010 y 2014, las ventas de robots aumentaron un 17 % de media cada año, que en 2014 las ventas registraron el mayor incremento anual observado hasta ahora —a saber, un 29 %—, y que los principales motores de este crecimiento son los proveedores de componentes de automoción y la industria electrónica y eléctrica; que, a lo largo del último decenio, se han triplicado las solicitudes anuales de patentes en el sector de la tecnología robótica;

D.  Considerando que, a corto y medio plazo, se espera que la robótica y la inteligencia artificial traigan consigo eficiencia y ahorro, no solo en la producción y el comercio, sino también en ámbitos como el transporte, la asistencia sanitaria, la educación y la agricultura, y que, gracias a ellas, se podrá evitar que los seres humanos se expongan a condiciones peligrosas, como, por ejemplo, las que entraña la limpieza de lugares contaminados con sustancias tóxicas; que, a largo plazo, el potencial para generar prosperidad es prácticamente ilimitado;

E.  Considerando que, al mismo tiempo, el desarrollo de la robótica y la inteligencia artificial puede conllevar que los robots asuman gran parte del trabajo que ahora realizan los seres humanos, cuestión esta que genera interrogantes sobre el futuro del empleo y la viabilidad de los sistemas de seguridad social en caso de que se mantenga la actual base fiscal, y que podría acarrear una mayor desigualdad en la distribución de la riqueza y el poder; 

F.  Considerando que, entre las cuestiones que suscitan preocupación, se halla también la de la seguridad física, en caso, por ejemplo, de que la programación de un robot falle, así como la de las posibles consecuencias de un fallo del sistema o de ataques informáticos contra robots interconectados y sistemas robóticos en un momento en el que empiezan a usarse, o están a punto de usarse, aplicaciones cada vez más autónomas, ya sea en relación con automóviles y drones, robots asistenciales o robots utilizados a fines policiales y de mantenimiento del orden público;

G.  Considerando que muchas cuestiones básicas de la protección de datos ya son objeto de examen en el marco general de internet y del comercio electrónico, pero que quizá sea necesario abordar otros aspectos relativos a la propiedad de los datos y la protección de los datos personales y la privacidad, habida cuenta de que las aplicaciones y los dispositivos comunicarán entre sí y con las bases de datos sin intervención humana alguna, o incluso sin que nadie tenga conocimiento de ello;

H.  Considerando que, aunque quizá resulte difícil valorar las «consecuencias invisibles» que esto tendrá para la dignidad humana, será necesario examinarlas en caso de que los robots sustituyan a los humanos a la hora de prestar cuidados y hacer compañía; que las cuestiones de la dignidad humana también pueden plantearse en el contexto de la rehabilitación y de las intervenciones en el cuerpo humano; 

I.  Considerando que, en última instancia, existe la posibilidad de que, dentro de unos decenios, la inteligencia artificial supere la capacidad intelectual humana de un modo tal que, de no estar preparados para ello, podría suponer un desafío a la capacidad de la humanidad de controlar su propia creación y, por ende, quizás también a la capacidad de ser dueña de su propio destino y garantizar la supervivencia de la especie;

J.  Considerando que en varios países extranjeros, como los EE.UU., Japón, China y Corea del Sur, se están planteando adoptar medidas reguladoras en el ámbito de la robótica y la inteligencia artificial, y que en algunos casos ya han empezado a hacerlo; que algunos Estados miembros han empezado también a reflexionar sobre posibles cambios legislativos a fin de tener en cuenta las nuevas aplicaciones de dichas tecnologías;

K.  Considerando que la industria europea pueda beneficiarse de un enfoque regulador coherente a escala europea, que defina unas condiciones previsibles y lo suficientemente claras gracias a las cuales las empresas puedan desarrollar aplicaciones y planificar sus modelos de negocio a escala europea, y que garantice al mismo tiempo que la Unión y sus Estados miembros mantengan el control sobre la reglamentación que se ha de establecer, de modo que no se vean obligados a adoptar normas establecidas por otros —es decir, por terceros Estados que también encabezan el desarrollo de la robótica y la inteligencia artificial— o a vivir sometidas a ellas;

2. Principios generales

L.  Considerando que, hasta que los robots sean conscientes de su propia existencia o sean fabricados con esa cualidad, si es que ese momento llega algún día, debe entenderse que las leyes de Asimov [1] van dirigidas a los diseñadores, fabricantes y operadores de robots, dado que dichas leyes no pueden traducirse en código de máquina;

M.  Considerando, no obstante, que es necesario disponer de una serie de normas en materia de responsabilidad y deontología que reflejen los valores intrínsecamente europeos y humanistas que caracterizan la contribución de Europa a la sociedad;

N.  Considerando que la Unión podría desempeñar un papel esencial a la hora de establecer principios éticos básicos de obligado cumplimiento para el desarrollo, la programación y la utilización de robots y de la inteligencia artificial, así como para la incorporación de dichos principios en la normativa y los códigos de conducta europeos, con el fin de conformar la revolución tecnológica de modo que sirva a la humanidad y se compartan al máximo los beneficios de una robótica avanzada y de la inteligencia artificial, evitando, dentro de lo que cabe, posibles escollos;

O.  Considerando que, en Europa, corresponde adoptar un enfoque gradual, prudente y pragmático como el que propugnaba Jean Monnet [2];

P.  Considerando que, dada la fase alcanzada en el desarrollo de la robótica y la inteligencia artificial, procede empezar por las cuestiones relativas a la responsabilidad civil y examinar si una responsabilidad objetiva, basada en quien esté en mejores condiciones de ofrecer garantías, no constituiría el mejor punto de partida;

3. Responsabilidad

Q.  Considerando que, gracias a los impresionantes avances tecnológicos de la última década, no es solo que los robots puedan realizar hoy en día actividades otrora típica y exclusivamente humanas, sino que el desarrollo de rasgos cognitivos y autónomos — como la capacidad de aprender de la experiencia y tomar decisiones independientes— ha hecho que estos robots se asimilen cada vez más a agentes que interactúan con su entorno y son capaces de modificarlo de forma significativa; que, en este contexto, la responsabilidad jurídica derivada de la actuación perjudicial de un robot se torna una cuestión crucial; 

R.  Considerando que la autonomía de un robot puede definirse como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de cualquier control o influencia externa; que esa autonomía es puramente tecnológica y que su grado depende del grado de complejidad de la interacción del robot con su entorno que se haya previsto al diseñarlo;

S.  Considerando que, cuanto más autónomos sean los robots, menos se los podrá considerar simples instrumentos en manos de otros agentes (como el fabricante, el propietario, el usuario, etc.); que, debido a esto, la normativa general sobre responsabilidad resulta insuficiente y precisa de nuevas normas que se centren en cómo una máquina puede considerarse parcial o totalmente responsable de sus actos u omisiones; que, como consecuencia de ello, resulta cada vez más urgente abordar la cuestión fundamental de si los robots deben tener personalidad jurídica;

T.  Considerando que, en definitiva, la autonomía de los robots suscita la cuestión de su condición y pertenencia a una de las categorías jurídicas existentes —es decir, si deben considerarse personas físicas, personas jurídicas, animales u objetos—, o de la creación de una nueva categoría, con sus propias características y repercusiones en lo que se refiere a atribución de derechos y obligaciones, incluida la responsabilidad por daños;

U.  Considerando que, en el actual marco jurídico, los robots no pueden, en sí mismos, ser considerados responsables de los actos u omisiones que causan daño a terceros; que las normas vigentes en materia de responsabilidad abarcan aquellos casos en los que es posible remontarse hasta un agente humano concreto —como el fabricante, el propietario o el usuario— a quien imputar la acción u omisión del robot, y en los que dicho agente podía haber previsto y evitado la actuación perjudicial del robot; que, además, los fabricantes, los propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un robot si, por ejemplo, el robot estuviera clasificado como un objeto peligroso o entrara dentro del ámbito de aplicación de la normativa sobre responsabilidad por daños causados por productos defectuosos;

V.  Considerando que, en el supuesto de que un robot pueda tomar decisiones autónomas, la normativa tradicional no bastará para establecer su responsabilidad, ya que con ella no se puede ni determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado; 

X.  Considerando que las deficiencias del actual marco jurídico se constatan en el ámbito de la responsabilidad contractual en la medida en que la existencia de máquinas concebidas para elegir a sus contrapartes, negociar cláusulas contractuales, celebrar contratos y decidir si estos se aplican y cómo imposibilita la aplicación de las normas tradicionales, lo que pone de relieve la necesidad de adoptar nuevas normas actualizadas;

Y. Considerando que, en materia de responsabilidad extracontractual, la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985 [3], solo cubre los daños ocasionados por los defectos de fabricación de un robot a condición de que el perjudicado puede demostrar el daño real, el defecto del producto y la relación de causa a efecto entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin culpa);  

Z.  Considerando que, pese al ámbito de aplicación de la Directiva 85/374/CEE, el marco jurídico actual no sería suficiente para cubrir los daños causados por la nueva generación de robots, en la medida en que se les puede dotar de capacidades de adaptación y aprendizaje que entrañan un cierto grado de imprevisibilidad en su comportamiento, ya que podrían aprender de forma autónoma de su propia experiencia variable e interactuar con su entorno de forma única e imprevisible;

4. Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil

01. Pide a la Comisión que proponga una definición europea común de robot autónomo inteligente y de sus distintas subcategorías, tomando en consideración las siguientes características de un robot inteligente:

·        Adquiere autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad), e intercambia y analiza datos.

·        Dispone de capacidad de autoaprendizaje (criterio facultativo).

·        Tiene un soporte físico.

·        Adapta su comportamiento y acciones al entorno;

02. Considera que debe crearse un sistema de registro de robots avanzados y pide a la Comisión que establezca criterios para la clasificación de los robots con vistas a identificar a aquellos que tendrían que registrarse;

03. Subraya que muchas aplicaciones robóticas están todavía en fase experimental; se congratula de que cada vez se estén financiando más proyectos de investigación con fondos nacionales y europeos; pide a la Comisión y a los Estados miembros que refuercen los instrumentos financieros destinados a apoyar proyectos de investigación en materia de robótica y TIC; destaca que es necesario destinar recursos suficientes para buscar soluciones a los retos sociales y éticos que plantean el desarrollo tecnológico y sus aplicaciones;

04. Pide a la Comisión que fomente los programas de investigación que incluyan un mecanismo de comprobación de los resultados a corto plazo para entender cuáles son los verdaderos riesgos y oportunidades asociados con la difusión de estas tecnologías; pide a la Comisión que aúne todos sus esfuerzos para velar por que, en estas tecnologías, se produzca una transición fluida, que abarque desde la investigación hasta la comercialización en el mercado;

5. Principios éticos

05. Señala que el potencial de empoderamiento que encierra el recurso a la robótica se ve matizado por una serie de tensiones o riesgos relacionados con la seguridad humana, la intimidad, la integridad, la dignidad, la autonomía y la propiedad de los datos;

06. Considera que es preciso un marco ético que sirva de orientación en materia de diseño, producción y uso de los robots, a fin de complementar las recomendaciones jurídicas expuestas en el presente informe, y el acervo nacional y de la Unión en vigor; propone, en el anexo a la presente Resolución, un marco en forma de carta que comprenda un código de conducta para los ingenieros en robótica, un código deontológico destinado a los comités de ética de la investigación para la revisión de los protocolos de robótica, y licencias tipo para los diseñadores y los usuarios; 

07. Señala que este marco ético orientador debe basarse en los principios de beneficencia, no maleficencia y autonomía, así como en los principios consagrados en la Carta de los derechos fundamentales de la Unión, como la dignidad humana y los derechos humanos, la igualdad, la justicia y la equidad, la no discriminación y no estigmatización, la autonomía y la responsabilidad individual, el consentimiento informado, la privacidad y la responsabilidad social, además de en los actuales códigos y prácticas éticas;

NOTA DEL EDITOR: Sobre ética puede consultarse en este mismo blog el artículo “Prolegómenos para una ética digital”.

6. Una agencia europea

08. Defiende la creación de una agencia europea para la robótica y la inteligencia artificial que proporcione la experiencia técnica, ética y normativa necesaria para apoyar la labor de los agentes públicos pertinentes, tanto a nivel de la Unión como a nivel de los Estados miembros, a la hora de garantizar una respuesta oportuna y bien informada ante las nuevas oportunidades y retos que plantea el desarrollo tecnológico de la robótica; 

09. Considera justificado, en vista del potencial recurso a la robótica y de la actual dinámica de inversiones, que esa agencia europea esté dotada de un presupuesto adecuado y de un personal compuesto por expertos en reglamentación, expertos técnicos y expertos en deontología externos dedicados a controlar, desde un punto de vista intersectorial y pluridisciplinar, las aplicaciones basadas en la robótica, a determinar las normas en que se basan las mejores prácticas y, en su caso, a recomendar medidas reguladoras, definir nuevos principios y hacer frente a posibles problemas de protección de los consumidores y desafíos sistémicos; pide a la Comisión y a la agencia europea que informen anualmente al Parlamento de los últimos avances que se produzcan en robótica; 

7. Derechos de propiedad intelectual y flujo de datos

10. Constata que no hay ninguna disposición jurídica que se aplique específicamente a la robótica, pero que las doctrinas y los regímenes jurídicos vigentes pueden aplicarse fácilmente a esta, aunque algunos aspectos requieran especial consideración; pide a la Comisión que proponga un enfoque equilibrado en materia de derechos de propiedad intelectual aplicados a las normas sobre equipos y programas informáticos, así como códigos que protejan la innovación y, al mismo tiempo, la estimulen; pide a la Comisión que elabore criterios relativos a una «creación intelectual propia» aplicables a las obras protegidas por derechos de autor creadas por ordenadores o robots;

11. Pide a la Comisión y a los Estados miembros que velen por que, en la elaboración de cualquier política de la Unión en materia de robótica, se incorporen garantías relativas a la privacidad y la protección de datos, de conformidad con los principios de necesidad y proporcionalidad; pide, en este sentido, a la Comisión que fomente el establecimiento de normas sobre los conceptos de protección de la intimidad desde el diseño y de protección de datos por defecto, y sobre el consentimiento informado y el cifrado;

12. Señala que el uso de datos personales como «moneda de cambio» con la que se pueden «adquirir» servicios plantea nuevas cuestiones que necesitan ser aclaradas; hace hincapié en que el uso de datos personales como «moneda de cambio» no debe dar lugar al incumplimiento de los principios básicos que regulan el derecho a la intimidad y la protección de datos;

 8. Normalización, seguridad y protección

13. Pide a la Comisión que continúe trabajando en pos de la armonización internacional de las normas técnicas, en particular junto con los organismos europeos de normalización y la Organización Internacional de Normalización, a fin de evitar la fragmentación del mercado interior y responder a las preocupaciones de los consumidores; pide a la Comisión que analice la legislación europea vigente con el fin de comprobar la necesidad de adaptarla en vista del desarrollo de la robótica y la inteligencia artificial;

14. Hace hincapié en que los ensayos de robots en escenarios reales es esencial para determinar y evaluar los riesgos que estos puedan entrañar, así como su desarrollo tecnológico más allá de la mera fase de laboratorio experimental; subraya, a este respecto, que los ensayos de robots en escenarios reales, en particular, en ciudades y carreteras, plantea numerosos problemas y exige un mecanismo de seguimiento eficaz; pide a la Comisión que elabore criterios uniformes en todos los Estados miembros para que estos puedan identificar los ámbitos en los que los experimentos con robots están permitidos;

9. Vehículos autónomos

15. Considera que el sector del automóvil es el que precisa más urgentemente de normas de ámbito europeo y mundial que garanticen el desarrollo transfronterizo de los vehículos autónomos con el fin de explotar plenamente su potencial económico y beneficiarse de los efectos positivos de las tendencias tecnológicas; subraya que la fragmentación de los enfoques normativos podría obstaculizar su puesta en práctica y poner en peligro la competitividad europea; toma nota de que, si bien las actuales normas de Derecho internacional privado en materia de accidentes de tráfico aplicables dentro de la Unión no necesitan modificarse urgentemente para adaptarlas al desarrollo de los vehículos autónomos, la simplificación del sistema dual con el que se determina actualmente la legislación aplicable (basado en el Reglamento (CE) n.º 864/2007 del Parlamento Europeo y del Consejo [4] y el Convenio de La Haya de 1971 sobre la ley aplicable en materia de accidentes de circulación por carretera) mejoraría la seguridad jurídica y limitaría las posibilidades de búsqueda del foro más favorable;

NOTA DEL EDITOR: Sobre vehículos autónomos puede consultarse en este mismo blog el artículo “Análisis jurídico de los vehículos autónomos: tecnología, ética y regulación”.

10. Robots asistenciales

16. Señala que el contacto humano es uno de los aspectos fundamentales de los cuidados; considera que sustituir a las personas por robots podría deshumanizar la prestación de cuidados;

11. Robots médicos

17. Subraya la importancia de una formación y una preparación adecuadas de los médicos y auxiliares sanitarios con el fin de garantizar el nivel más elevado posible de competencia profesional, y de proteger la salud de los pacientes; hace hincapié en la necesidad de definir los requisitos profesionales mínimos que deberá cumplir un cirujano para poder utilizar los robots quirúrgicos; subraya la especial importancia que reviste la formación de los usuarios para que puedan familiarizarse con los requisitos tecnológicos en este ámbito; llama la atención sobre la creciente tendencia al autodiagnóstico mediante el uso de robots móviles que realizan diagnósticos y que podrían acabar por asumir el papel de los médicos;

12 Rehabilitación e intervenciones en el cuerpo humano

18. Señala el gran potencial de la robótica en el ámbito de la rehabilitación de órganos dañados y el restablecimiento de funciones corporales reducidas, aunque es consciente de las complejas cuestiones que ello suscita, en particular por las posibilidades de intervención en el cuerpo humano; pide que se establezcan comités de ética sobre robótica en los hospitales y otras instituciones sanitarias, encargados de examinar y contribuir a resolver problemas éticos inusuales y complejos relacionados con cuestiones que afectan al cuidado y tratamiento de los pacientes; pide a la Comisión y a los Estados miembros que desarrollen directrices para ayudar al establecimiento y funcionamiento de dichos comités;

13. Drones (RPAS)

19. Subraya la importancia de un marco europeo de los sistemas de aeronaves pilotadas a distancia (RPAS) para preservar la seguridad y privacidad de los ciudadanos de la Unión y ofrecerles protección, y pide a la Comisión que realice un seguimiento de las recomendaciones hechas en la Resolución del Parlamento Europeo, de 29 de octubre de 2015, sobre el uso seguro de los sistemas de aeronaves pilotadas de forma remota (RPAS), comúnmente conocidos como vehículos aéreos no tripulados (UAV), en el ámbito de la aviación civil [5];  

NOTA DEL EDITOR: Sobre drones puede consultarse en este mismo blog el artículo “Dictamen 01/2015 sobre la privacidad y la protección de datos en relación con la utilización de aviones no tripulados (drones)”.


14. Previsiones en el ámbito de la formación y el empleo

20. Llama la atención sobre las previsiones de la Comisión según las cuales, de aquí a 2020, Europa podría tener que enfrentarse a una escasez de hasta 825 000 profesionales en el sector de las TIC, a la vez que el 90 % de los puestos de trabajo requerirá al menos unas capacidades digitales básicas; acoge con satisfacción la iniciativa de la Comisión de proponer un plan de trabajo para la posible utilización y revisión del marco de competencias digitales, con descriptores de competencias digitales para todos los niveles de aprendizaje;

21. Considera que la industria digital, las propias mujeres y la economía europea saldrían ganando si se consiguiera que más mujeres jóvenes se decantaran por una carrera digital y si se contratara a más mujeres en empleos digitales; pide a la Comisión y a los Estados miembros que pongan en marcha iniciativas para apoyar a las mujeres en el sector de las TIC y para mejorar su capacitación en el ámbito digital;

22. Pide a la Comisión que empiece a supervisar más estrechamente la evolución del empleo, con especial énfasis en la creación y pérdida de puestos de trabajo en los diferentes campos/ámbitos de calificación, con objeto de determinar en qué ámbitos se está creando empleo y en cuáles se está destruyendo debido a una mayor utilización de los robots;                                             

23. Considera, habida cuenta de los efectos que el desarrollo y la implantación de la robótica y la inteligencia artificial podrían tener en el empleo y, por ende, en la viabilidad de los sistemas de seguridad social de los Estados miembros, que debería examinarse la necesidad de exigir a las empresas que informen acerca de en qué medida y proporción la robótica y la inteligencia artificial contribuyen a sus resultados económicos, a efectos de fiscalidad y del cálculo de las cotizaciones a la seguridad social; opina que, a la luz de la repercusión que la robótica y la inteligencia artificial podrían tener en el mercado de trabajo, debería considerarse seriamente la posibilidad de introducir una renta básica universal, e invita a todos los Estados miembros a que reflexionen sobre ello;

15. Responsabilidad

24. Considera que la responsabilidad civil de los robots es una cuestión fundamental que debe abordarse a escala de la Unión con el fin de garantizar el mismo grado de transparencia, coherencia y seguridad jurídica en toda la Unión Europea para beneficio de los consumidores y las empresas;

25. Pide a la Comisión que presente, sobre la base del artículo 114 del Tratado de Funcionamiento de la Unión Europea, una propuesta de instrumentos legislativos sobre los aspectos jurídicos de la evolución de la robótica y de la inteligencia artificial previsible en los próximos 10 a 15 años, de acuerdo con las recomendaciones detalladas que figuran en el anexo; insta asimismo a la Comisión a que, una vez que el desarrollo tecnológico permita la concepción de robots cuyo grado de autonomía sea más elevado de lo razonablemente previsible en la actualidad, proponga una revisión de la legislación pertinente a su debido tiempo;

26. Considera que, independientemente del instrumento jurídico futuro que se escoja en materia de responsabilidad de los robots en casos distintos a los perjuicios patrimoniales, dicho instrumento legislativo no debería en modo alguno limitar el tipo o el alcance de los daños y perjuicios que puedan ser objeto de compensación, ni tampoco limitar la naturaleza de dicha compensación, por el único motivo de que los daños hayan sido causados por un agente no perteneciente a la especie humana; 

27. Considera que el futuro instrumento legislativo debe prever, como regla general, la aplicación de la responsabilidad objetiva, lo que únicamente exige probar que se ha producido un daño y el establecimiento de un nexo causal entre el comportamiento perjudicial del robot y los daños causados a la persona perjudicada; 

28. Considera que en principio, una vez que las partes responsables hayan sido identificadas en última instancia, su responsabilidad será proporcional al nivel real de las instrucciones dadas a los robots y a su autonomía, por lo que cuanto mayor sea la capacidad de aprendizaje o la autonomía, menor será la responsabilidad de las otras partes, y cuanto más larga haya sido la «educación» del robot, mayor será la responsabilidad de su «profesor»; observa, en particular, que al tratar de determinar la responsabilidad real de los daños, las competencias adquiridas a través de la «educación» de un robot no deberían confundirse con las competencias estrictamente dependientes de su capacidad de aprender de modo autónomo;

29. Señala que una posible solución a la complejidad de la asignación de responsabilidad por los daños causados por robots cada vez más autónomos, podría ser el establecimiento de régimen de seguro obligatorio, como ya ocurre, por ejemplo, con los coches; no obstante, observa que, a diferencia del régimen de seguros en materia de circulación por carretera, en los que el seguro cubre tanto las actuaciones humanas como los fallos, un sistema de seguros para robots podría basarse en la obligación del fabricante de suscribir un seguro para los robots autónomos que produce;

30. Considera que, tal como sucede con el seguro de vehículos de motor, dicho sistema podría completarse con un fondo para garantizar la reparación de daños en los casos de ausencia de una cobertura de seguro; pide al sector asegurador que desarrolle nuevos productos que estén en consonancia con los avances de la robótica; 

31. Pide a la Comisión que, cuando realice una evaluación de impacto de su futuro instrumento legislativo, explore las implicaciones de todas las posibles soluciones jurídicas, tales como:
  • Establecer un régimen de seguro obligatorio, similar al existente para los automóviles, en el que los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por los posibles daños causados por sus robots.
  • Establecer un fondo de compensación que no solo garantizaría la reparación del daño causado por un robot ante la ausencia de un seguro, que en cualquier caso seguiría siendo su principal objetivo, sino también la de permitir distintas operaciones financieras en interés del robot, tales como inversiones, donaciones o la remuneración a robots inteligentes autónomos por sus servicios, que podrían transferirse al fondo;
  • Establecer un régimen de responsabilidad limitada para el fabricante, el programador, el propietario o el usuario en la medida en que los robots inteligentes autónomos dispondrían de un fondo de compensación (al que todas las partes podrían contribuir en proporciones variables), y solo podrían invocarse los daños materiales dentro de los límites de dicho fondo, otros tipos de daños no estarían sujetas a tales límites;
  • Decidir si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o entre pagos periódicos durante la vida del robot;
  • Crear un número de inscripción individual que figure en un registro específico de la Unión, que garantice la asociación entre el robot y el fondo del que depende, y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes;
  • Crear una personalidad jurídica específica para los robots, de modo que al menos los robots autónomos más complejos puedan ser considerados personas electrónicas con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar; la personalidad electrónico se aplicaría a los supuestos en que los robots puedan tomar decisiones autónomas inteligentes o interactuar con terceros de forma independiente. 

16. Aspectos internacionales

32. Señala asimismo la necesidad de introducir modificaciones a algunos acuerdos internacionales, como el Convenio de Viena sobre la circulación vial y el Convenio de la Haya sobre accidentes de circulación por carretera. 

33.  Anima encarecidamente a la comunidad internacional, bajos los auspicios de las Naciones Unidas, a cooperar para establecer normas reglamentarias;

34. Destaca que las restricciones y condiciones establecidas en el «Reglamento del doble uso» [6] sobre el comercio de los productos de doble uso (productos, programas informáticos y tecnología que puedan utilizarse para aplicaciones tanto civiles como militares o que puedan contribuir a la proliferación de armas de destrucción masiva) deberían extenderse a las aplicaciones de la robótica;

17. Aspectos finales

35. Pide a la Comisión que presente, sobre la base del artículo 225 del Tratado de Funcionamiento de la Unión Europea, una propuesta de Directiva sobre la reglas del Derecho civil en materia de robótica, con arreglo a las recomendaciones detalladas que figuran en el anexo;

36. Constata que estas recomendaciones respetan los derechos fundamentales y el principio de subsidiariedad;

37. Opina que la propuesta solicitada no tiene implicaciones financieras;

38. Encarga a su Presidente que transmita la presente propuesta y las recomendaciones que se detallan en el anexo a la Comisión y al Consejo.





ANEXO A LA PROPUESTA DE RESOLUCIÓN: RECOMENDACIONES DETALLADAS RESPECTO AL CONTENIDO DE LA PROPUESTA SOLICITADA

A.1 Definición y clasificación de los «robots inteligentes»

Debe establecerse una definición europea común de robots autónomos «inteligentes», cuando proceda, incluidas las definiciones de sus subcategorías, teniendo en cuenta las siguientes características:
  • La capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el análisis de dichos datos;
  • La capacidad de aprender a través de la experiencia y la interacción;
  • La forma del soporte físico del robot;
  • La capacidad de adaptar su comportamiento y acciones al entorno.

A.2 Registro de los «robots inteligentes»

A efectos de la trazabilidad y para facilitar la aplicación de nuevas recomendaciones, cabe introducir un sistema de registro de robots avanzados, basado en los criterios establecidos para la clasificación de los robots. Tanto el sistema de registro como el registro deberían establecerse a escala de la Unión, cubrir el mercado interior y ser gestionados por una agencia de la Unión para la robótica y la inteligencia artificial. 

A.3 Responsabilidad civil 

Cualquier solución jurídica elegida en materia de responsabilidad de los robots para los supuestos diferentes de los daños materiales no debería en modo alguno limitar el tipo o el alcance de los daños y perjuicios que puedan ser objeto de compensación, y tampoco debería limitar la naturaleza de dicha compensación, basándose únicamente en que los daños han sido causados por un agente no perteneciente a la especie humana. 

El futuro instrumento legislativo debería prever la aplicación de una regla de responsabilidad estricta norma para los daños causados por los «robots inteligentes», exigiendo solo la prueba de una relación de causalidad entre el comportamiento perjudicial del robot y el daño causado a la parte perjudicada.

Sería conveniente establecer un régimen de seguro obligatorio, que podría basarse en la obligación del productor de suscribir un seguro para los robots autónomos por él fabricados.

El sistema de seguro debería complementarse con un fondo para garantizar la compensación de los daños y perjuicios en los supuestos en los que no exista una cobertura de seguro.

Interoperabilidad, acceso al código fuente y derechos de propiedad intelectual

Cabría garantizar la interoperabilidad de los robots autónomos conectados a la red autónoma que interactúan entre sí. El acceso al código fuente debería estar disponible cuando fuera necesario para investigar tanto los accidentes como los daños causados por «robots inteligentes». 

Sería conveniente establecer criterios aplicables a la «creación intelectual» de obras protegidas por los derechos de autor producidas mediante ordenadores o robots.

Comunicación de la utilización de robots y la inteligencia artificial, por parte de las empresas

Las empresas deberían estar obligadas a comunicar la siguiente información:
  • El número de «robots inteligentes» que utilizan.
  • Los ahorros realizados en cotizaciones a la seguridad social gracias a la utilización de la robótica en lugar del personal humano.
  • Una evaluación de la cuantía y la proporción de los ingresos de la empresa procedentes de la utilización de la robótica y la inteligencia artificial. 

A.4 Carta sobre robótica

La Comisión, a la hora de proponer una nueva reglamentación sobre robótica, ha de tener en cuenta los principios recogidos en la siguiente carta sobre robótica: 






CARTA SOBRE ROBÓTICA

La propuesta de un código de conducta ética en el campo de la robótica sentará las bases para la identificación, la supervisión y el cumplimiento de los principios éticos fundamentales desde la fase de diseño y desarrollo.

El marco debe concebirse de un modo reflexivo que permita efectuar ajustes individuales caso por caso para evaluar si un determinado comportamiento es adecuado o equivocado en una situación determinada y tomar decisiones conforme a una jerarquía de valores preestablecidos.

El código no debería reemplazar la necesidad de abordar los principales retos jurídicos en este ámbito, sino que ha de tener una función complementaria. Facilitará más bien, la categorización ética de la robótica, reforzará los esfuerzos de innovación responsable en este ámbito y responderá a las preocupaciones de los ciudadanos.

Convendría hacer especial hincapié en las fases de investigación y desarrollo de la trayectoria tecnológica pertinente (proceso de concepción, análisis ético, controles de auditoría, etc.). El código de conducta debería tener como objetivo no solo la necesidad de abordar la necesidad de cumplimiento de determinadas normas éticas por parte de investigadores, profesionales, usuarios y diseñadores, sino también de introducir un procedimiento para la resolución de los dilemas éticos y permitir que estos sistemas puedan funcionar de una manera éticamente responsable.



CÓDIGO DE CONDUCTA ÉTICA

PARA LOS INGENIEROS EN ROBÓTICA

PREÁMBULO
  • El código de conducta invita a todos los investigadores y diseñadores a actuar de forma responsable y con la máxima consideración a la necesidad de respetar la dignidad, intimidad y la seguridad de las personas.
  • El código pide una estrecha colaboración entre todas las disciplinas a fin de garantizar que se lleve a cabo la investigación en robótica en la Unión de un modo seguro, ético y eficaz.
  • El código de conducta cubre todas las actividades de investigación y desarrollo en el campo de la robótica.
  • El código de conducta es voluntario y ofrece un conjunto de principios generales y directrices para las medidas que adopten todas las partes interesadas.
  • Se invita a los organismos de financiación en materia de robótica, los centros de investigación, los investigadores y los comités de ética a que examinen desde las primeras etapas, las consecuencias futuras de las tecnologías u objetos que se investigan y de crear una cultura de la responsabilidad para hacer frente a los retos y oportunidades que puedan plantearse en el futuro.
  • Los organismos públicos y privados de financiación de la investigación en el ámbito de la robótica deberían exigir la realización y presentación de una evaluación del riesgo para cada propuesta de financiación de la investigación en la materia. Un código de estas características debería considerar que la responsabilidad incumbe a los seres humanos, no a los robots.

Los investigadores en el campo de la robótica deberían comprometerse a adoptar una conducta estricta en materia de ética y de deontología así como a respetar los siguientes principios:
  • Beneficencia — los robots deben actuar en beneficio del hombre;
  • Principio de no perjuicio o maleficencia — la doctrina de «primero, no hacer daño», en virtud del cual los robots no deberían perjudicar a las personas;
  • Autonomía — la capacidad de tomar una decisión con conocimiento de causa e independiente sobre los términos de interacción con los robots;
  • Justicia — la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular.

Derechos fundamentales

Las actividades de investigación en materia de robótica deben respetar los derechos fundamentales; y por su parte, las actividades de concepción, ejecución, difusión y explotación han de estar al servicio del bienestar de las personas y de la sociedad. La dignidad humana — tanto física como psicológica — siempre tiene que respetarse.

Precaución

Las actividades de investigación en el ámbito de la robótica deben llevarse a cabo de conformidad con el principio de precaución, anticipándose a los posibles impactos de sus resultados sobre la seguridad y adoptando las precauciones debidas, en función del nivel de protección, al tiempo que se fomenta el progreso en beneficio de la sociedad y del medio ambiente.

Participación

Los ingenieros en robótica gar*antizan la transparencia y el respeto al derecho legítimo de acceso a la información de todas las partes interesadas. La integración permite la participación en los procesos de toma de decisiones de todas las partes interesadas o afectadas por las actividades de investigación en el ámbito de la robótica.

Rendición de cuentas

Los ingenieros en robótica deben rendir cuentas de las consecuencias sociales y medioambientales y el impacto sobre la salud humana que la robótica puede conllevar para las generaciones presentes y futuras.

Seguridad

Los diseñadores de robots han de tener en cuenta y respetar la integridad física, la seguridad, la salud y los derechos de las personas. Un ingeniero en robótica debe preservar el bienestar sin dejar de respetar los derechos humanos, y divulgar con prontitud los factores susceptibles de poner en peligro a la población o al medio ambiente.

Reversibilidad

La reversibilidad, que es una condición necesaria de la posibilidad de control, es un concepto fundamental en la programación de robots para que se comporten de manera segura y fiable. Un modelo de reversibilidad indica al robot qué acciones son reversibles y, en su caso, el modo de invertirlas. La posibilidad de deshacer la última acción o secuencia de acciones, permite al usuario anular las acciones no deseadas y volver a la fase «buena» de su trabajo.

Privacidad

El derecho a la intimidad debe siempre respetarse. Un ingeniero en robótica debe garantizar que la información privada se conservará en total seguridad y solo se utilizará de forma adecuada. Por otra parte, el ingeniero en robótica ha de garantizar que los individuos no son personalmente identificables, salvo en circunstancias excepcionales, y únicamente en caso de consentimiento claro, consciente e inequívoco. El consentimiento consciente de la persona tiene que solicitarse y recabarse con anterioridad a cualquier interacción hombre-máquina. A tal efecto, los diseñadores en robótica tienen la responsabilidad de desarrollar y aplicar procedimientos para garantizar el consentimiento válido, la confidencialidad, el anonimato, el trato justo y el respecto de la legalidad. Los diseñadores llevarán a cabo todas las solicitudes de destrucción de los datos relacionados y de eliminación de las bases de datos.

Maximizar beneficios y reducir al mínimo los daños

Los investigadores deben intentar maximizar los beneficios de su actividad en todas las fases, desde su concepción hasta su difusión. Es conveniente evitar cualquier daño a los participantes o a los seres humanos que participen en los experimentos, ensayos o estudios en el ámbito de la investigación. En caso de aparición de riesgos inevitables que formen parte de un elemento integrante de la investigación, sería necesario llevar a cabo una evaluación sólida de los riesgos, desarrollar protocolos de gestión y adecuarse a los mismos. Normalmente, los riesgos a un daño no deberían ser superior a los existentes en la vida cotidiana, es decir, las personas no han de estar expuestas a riesgos mayores o adicionales a aquellos a los que están expuestos en su vida cotidiana. La explotación de un sistema de robótica debería basarse siempre en una profunda evaluación de los riesgos, y reposar en los principios de proporcionalidad y de precaución.



CÓDIGO DEONTOLÓGICO PARA

LOS COMITÉS DE ÉTICA DE LA INVESTIGACIÓN

PRINCIPIOS

Independencia

El proceso de revisión ética ha de ser independiente de la propia investigación. Este principio pone de relieve la necesidad de evitar conflictos de intereses entre los investigadores y aquellos encargados de revisar el protocolo ético, y entre los revisores y las estructuras de gobernanza organizativa.

Competencia

Sería conveniente que el proceso de revisión ética fuera efectuado por revisores con experiencia adecuada, teniendo en cuenta la necesidad de un examen cuidadoso de la diversidad en la composición y en la formación específica en materia de ética de los comités de ética de la investigación.

Transparencia y obligación de rendir cuentas

El proceso de revisión debería ser responsable y en condiciones de ser objeto de control. Los comités de ética de la investigación regionales deben ser conscientes de sus responsabilidades y estar adecuadamente ubicados dentro de estructuras organizativas que les doten de transparencia operativa y de procedimientos destinados a conservar y revisar las normas.

La función de un comité de ética de la investigación 

Normalmente, los comités de ética de la investigación son responsables de revisar toda investigación en la que intervienen participantes humanos realizada por persona empleadas en o por la institución en cuestión; de garantizar que la revisión ética es independiente, competente y oportuna; de proteger la dignidad, los derechos y el bienestar de los sujetos participantes de la investigación; de velar por la seguridad de los investigadores; de tener en cuenta los intereses legítimos de las demás partes interesadas; de hacer juicios razonados del mérito científico de las propuestas; de formular recomendaciones con conocimiento de causa al investigador si la propuesta es considerada insuficiente en determinados aspectos.

Constitución de un comité de ética de la investigación

Un comité de ética de la investigación debería: ser multidisciplinar, incluir a hombres y mujeres, estar constituido por miembros con una amplia experiencia y conocimientos en el ámbito de la investigación en robótica. El mecanismo de designación debería velar por que los miembros del comité proporcionen un equilibrio adecuado entre conocimientos científicos, formación filosófica, ética o jurídica, así como diferentes puntos de vista. Además, debería contar con al menos un miembro con conocimientos especializados en materia de ética, así como con usuarios de servicios especializados de salud, educación o servicios sociales cuando dichos ámbitos figuren dentro de las actividades de investigación, y personas con conocimientos metodológicos específicos relacionados con la investigación que evalúen; y deberán estar constituidos de modo que se eviten los conflictos de intereses.

Control

Sería conveniente que todos los organismos de investigación establecieran procedimientos adecuados para supervisar la ejecución de la investigación que haya recibido el visto bueno en materia de ética hasta la finalización del mismo, y garantizar una revisión continua en el supuesto de que el diseño de la investigación prevea posibles cambios a lo largo del tiempo que debieran tratarse. Los controles deberían ser proporcionados a la naturaleza y a la intensidad del riesgo vinculado con la investigación. Cuando un comité de ética de la investigación considere que un informe de seguimiento plantea importantes dudas sobre la conducta ética del estudio, deberá solicitar un detalle pormenorizado y exhaustivo de la investigación con vistas a efectuar un examen ético. Cuando considere que un estudio se está llevando a cabo de un modo contrario a la ética, el comité deberá plantearse la retirada de su aprobación y exigir que la investigación se suspenda o interrumpa.



A.5 Licencia para los diseñadores
  • Los diseñadores deberán tener en cuenta los valores europeos de dignidad, libertad y justicia, antes, durante y después del proceso de concepción, desarrollo y de aplicación de esas tecnologías, incluida la necesidad de no perjudicar, herir, engañar o explorar a los usuarios (vulnerables).
  • Los diseñadores deberán introducir principios de diseño de sistemas fiables en todos los aspectos del funcionamiento de un robot, tanto para la concepción del material y de programas informáticos, como para el tratamiento de datos dentro o fuera de la plataforma a efectos de seguridad.
  • Los diseñadores deberán introducir dispositivos concebidos para asegurar que las informaciones privadas se conservan con total seguridad y solo se utilizan de manera adecuada.
  • Los diseñadores deberán integrar mecanismos de salida evidentes (teclas de interrupción de urgencia) que deberán ser coherentes con los objetivos de diseño razonables.
  • Los diseñadores deberán garantizar que un robot funciona de modo conforme a los principios éticos y jurídicos a nivel local, nacional e internacional.
  • Los diseñadores deberán asegurarse de que las etapas de toma de decisión del robot puedan ser objeto de reconstrucción y trazabilidad.
  • Los diseñadores deberán asegurarse de que es conveniente una transparencia máxima en la programación de los sistemas robóticos, así como la previsibilidad del comportamiento de los robots.
  • Los diseñadores deberán analizar la previsibilidad de un sistema humano-robot teniendo en cuenta la incertidumbre en la interpretación y en la acción, así como los posibles fallos de los robots o del hombre.
  • Los diseñadores deberán desarrollar instrumentos de rastreo en la fase de concepción del robot. Estos instrumentos permitirán tener en cuenta y explicar los comportamientos de los robots, aunque sea de forma limitada, en los distintos niveles previstos para los expertos, los operadores y los usuarios.
  • Los diseñadores deberán elaborar protocolos de concepción y evaluación, y colaborar con los usuarios y las partes interesadas potenciales para evaluar las ventajas y los riesgos de la robótica, incluido a nivel cognitivo, psicológico y medioambiental.
  • Los diseñadores deberán asegurarse de que los robots son identificables como tales al relacionarse con seres humanos.
  • Los diseñadores deberán salvaguardar la seguridad y la salud de las personas que interactúan y entran en contacto con los robots, teniendo en cuenta que estos, como productos, deberán elaborarse utilizando procesos que garantizan su seguridad y protección. Un ingeniero en robótica ha de preservar el bienestar humano, al tiempo que respeta los derechos humanos, y no podrá accionar un robot sin garantizar la seguridad, la eficacia y la reversibilidad del funcionamiento del sistema.
  • Los diseñadores deberán obtener el dictamen favorable de un comité de ética de la investigación antes de probar un robot en un entorno real o implicando a seres humanos en los procedimientos de concepción y desarrollo.



A.6 Licencia para los usuarios
  • Los usuarios estarán autorizados a hacer uso de un robot sin miedo de perjuicio físico o psicológico.
  • Los usuarios deben tener derecho a esperar que un robot efectúe las tareas para las que haya sido expresamente concebido.
  • Los usuarios deben ser conscientes de que los robots pueden tener límites de percepción, límites cognitivos y límites de accionamiento.
  • Los usuarios deberán respetar la fragilidad humana, tanto física como psicológica, así como las necesidades emocionales de los seres humanos.
  • Los usuarios deben tener en cuenta el derecho a la vida privada de las personas, incluida la desactivación de video monitores durante procedimientos íntimos.
  • Los usuarios no están autorizados a recoger, utilizar o divulgar información personal sin el consentimiento explícito de la persona concernida.
  • Los usuarios no están autorizados a utilizar un robot de modo contrario a los principios y normas éticas o jurídicas.
  • Los usuarios no están autorizados a modificar los robots para utilizarlos como armas.   



EXPOSICIÓN DE MOTIVOS

E.1 Antecedentes

En virtud del anexo VI del Reglamento, la Comisión de Asuntos Jurídicos es competente, entre otras cosas, en el ámbito del Derecho civil y mercantil, el Derecho de sociedades, el Derecho de propiedad intelectual, así como en la interpretación y aplicación del Derecho internacional, siempre y cuando se vea afectada la Unión Europea, y en cuestiones éticas relacionadas con las nuevas tecnologías. La evolución de la robótica y la inteligencia artificial plantea cuestiones jurídicas y éticas que están claramente relacionadas con todos estos ámbitos y que requieren una intervención rápida a escala de la Unión. Si bien corresponderá a la Comisión Europea presentar, en su caso, una o varias propuestas legislativas relacionadas con la robótica y la inteligencia artificial, el Parlamento Europeo ha decidido allanar el camino a estas iniciativas haciendo uso de sus derechos en virtud del artículo 225 del Tratado de Funcionamiento de la Unión Europea y del artículo 46 de su Reglamento.

En consecuencia, el 20 de enero de 2015 la Comisión JURI decidió crear un Grupo de trabajo sobre las cuestiones jurídicas relacionadas con la evolución de la robótica y la inteligencia artificial en la Unión Europea. El objetivo principal del Grupo de trabajo consiste en elaborar normas de Derecho civil relacionadas con este tema.

Además de los miembros de la Comisión de Asuntos Jurídicos, el Grupo de trabajo también cuenta con miembros representantes de la Comisión de Industria, Investigación y Energía (ITRE), de la Comisión de Mercado Interior y Protección del Consumidor (IMCO) y de la Comisión de Empleo y Asuntos Sociales (EMPL).

El Grupo de trabajo ha consultado a expertos de ámbitos muy diversos y ha obtenido importantes contribuciones que figuran en la presente Resolución.

E.2 Consideraciones generales

La robótica y la inteligencia artificial se han convertido en una de las principales tendencias tecnológicas de nuestro siglo. El rápido aumento de su uso y de su evolución plantea nuevos y difíciles retos a nuestra sociedad. El camino desde el sector industrial hasta el contexto de la sociedad civil obliga a adoptar un enfoque diferente con respecto a estas tecnologías, puesto que los robots y la inteligencia artificial podrían aumentar su interacción con los seres humanos en ámbitos muy diversos.

La Comisión JURI considera que los riesgos que entrañan estas nuevas interacciones deberían abordarse con urgencia, velando por que se respeten un conjunto de valores fundamentales en todas las fases de contacto entre los robots, la inteligencia artificial y los seres humanos. En el marco de este proceso, debe hacerse especial hincapié en la seguridad, el respeto a la intimidad, la integridad, la dignidad y la autonomía de los seres humanos.

Otros aspectos importantes que también aborda la presente Resolución son: la normalización, los derechos de propiedad intelectual, la propiedad de los datos, el empleo y la responsabilidad. Es fundamental que el Reglamento proporcione condiciones predecibles y suficientemente claras para incentivar la innovación europea en el campo de la robótica y la inteligencia artificial.

E.3 Fundamento jurídico y subsidiariedad

Las acciones de la Comisión destinadas a adaptar la legislación vigente a la realidad de la robótica y la inteligencia artificial deben basarse en el artículo 114 del TFUE. De acuerdo con el artículo 5, apartado 3, del TUE, "en virtud del principio de subsidiariedad la Unión intervendrá sólo en caso de que, y en la medida en que, los objetivos de la acción pretendida no puedan ser alcanzados de manera suficiente por los Estados miembros, ni a nivel central ni a nivel regional y local, sino que puedan alcanzarse mejor, debido a la dimensión o a los efectos de la acción pretendida, a escala de la Unión". Actualmente la robótica se está desarrollando en toda la Unión. En respuesta a esta innovación, los Estados miembros están elaborando distintas legislaciones nacionales. Estas discrepancias son susceptibles de crear obstáculos al desarrollo eficaz de la robótica. Debido a que esta tecnología tiene implicaciones transfronterizas, la mejor opción legislativa es una a escala europea.

E.4 Principios generales y éticos

La Resolución establece principios generales y principios éticos en relación con el desarrollo de la robótica y la inteligencia artificial para uso civil. En primer lugar, para abordar de forma apropiada este desarrollo, es fundamental establecer una definición común de los robots autónomos inteligentes. Por otro lado, conviene reforzar la investigación en el ámbito de la robótica y las tecnologías de la información y la comunicación, así como sobre las consecuencias de su difusión.

En segundo lugar, con el fin de abordar los principios éticos, la presente Resolución incluye en su anexo una Carta sobre robótica. Esta Carta consiste en un código de conducta ética para los ingenieros en robótica, un código deontológico para los comités de ética de la investigación y licencias para los diseñadores y los usuarios. El marco propuesto se ajusta plenamente a la Carta de los Derechos Fundamentales de la Unión Europea.

Asimismo, se sugiere la creación de una agencia europea para la robótica y la inteligencia artificial. Esta agencia debería facilitar la experiencia técnica, ética y normativa necesaria para apoyar la labor de los agentes públicos pertinentes.

Los derechos de propiedad intelectual, la protección y la propiedad de los datos

La Resolución pide a la Comisión Europea que adopte un enfoque equilibrado en materia de derechos de propiedad intelectual aplicados a las normas sobre equipos y programas informáticos, y que proponga códigos que protejan la innovación y, al mismo tiempo, la estimulen. Asimismo, solicita que se elaboren criterios relativos a la «creación intelectual propia» aplicables a las obras protegidas por derechos de autor creadas por ordenadores o robots.

El actual e insuficiente marco jurídico relativo a la protección y la propiedad de los datos es motivo de gran preocupación debido al flujo (previsiblemente masivo) de datos procedentes de la utilización de la robótica y la inteligencia artificial.

E.5 La normalización, la seguridad y la protección

El aumento de la utilización de robots e inteligencia artificial requiere una normalización europea que evite las discrepancias entre los Estados miembros y la fragmentación del mercado interior de la Unión Europea.

Por otra parte, deben abordarse las preocupaciones de los consumidores sobre la seguridad y la protección relacionadas con la utilización de robots e inteligencia artificial. Esta Resolución subraya, en particular, que la realización de ensayos de robots en situaciones reales es esencial para la identificación y la evaluación de los riesgos que puedan entrañar.

E.6 Normas para la utilización específica de robots e inteligencia artificial

La Resolución incluye disposiciones aplicables a determinados tipos de robots. Conviene adoptar normas individuales para los vehículos autónomos, los robots asistenciales, los robots médicos, los robots para la rehabilitación e intervenciones en el cuerpo humano, así como los drones o sistemas de aeronave pilotada a distancia (RPAS).

E.7 Normas sobre responsabilidad

Los riesgos que puedan surgir están intrínsecamente relacionados con la utilización de máquinas autónomas en nuestra sociedad. El comportamiento de un robot podría tener implicaciones de Derecho civil, tanto en términos de responsabilidad contractual como extracontractual. Por lo tanto, es necesario aclarar la responsabilidad de las acciones de los robots y, en última instancia, la capacidad jurídica o el estatus de los robots y de la inteligencia artificial, con el fin de garantizar la transparencia y la seguridad jurídica para los productores y consumidores en la Unión Europea.

Se solicita a la Comisión que lleve a cabo una evaluación de impacto de sus futuros instrumentos legislativos para explorar las implicaciones de todas las posibles soluciones jurídicas, tales como, entre otras, la creación de un régimen de seguro obligatorio y un fondo de compensación.

E.8 La robótica y la inteligencia artificial en el ámbito social

El aumento de la comunicación y la interacción con los robots puede repercutir considerablemente en las relaciones físicas y morales en nuestra sociedad. Esto sucede especialmente en el caso de los robots asistenciales, hacia los que las personas particularmente vulnerables podrían desarrollar sentimientos emocionales y sentir apego, lo que suscita preocupación por la dignidad humana y otros valores morales.

Los robots y la inteligencia artificial ya tienen repercusión en la educación y el empleo. En este contexto, es necesario supervisar atentamente la evolución del empleo a fin de evitar consecuencias negativas para el mercado laboral.

E.9 Aspectos internacionales

Habida cuenta de la evolución de la robótica y la inteligencia artificial en todo el mundo, debería considerarse la posibilidad de adoptar iniciativas para modificar, si fuera necesario, algunos acuerdos internacionales vigentes en la materia o elaborar nuevos instrumentos con el objetivo de introducir referencias específicas a la robótica y la inteligencia artificial. La cooperación internacional en este ámbito es muy recomendable. 

18. Referencias

- [1]1) Un robot no debe hacer daño a un ser humano ni, por inacción, dejar que este sufra un daño. 2) Un robot debe obedecer las órdenes que recibe de un ser humano, excepto cuando tales órdenes entran en conflicto con la primera ley. 3) Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto ni con la primera ni con la segunda ley [véase Círculo vicioso (Runaround), de Isaac Asimov, 1942] y 0) un robot no debe hacer daño a la humanidad ni, por omisión, dejar que esta sufra un daño”.

- [2] Véase la Declaración Schuman, de 1950: “Europa no se hará de una vez ni en una obra de conjunto. Se hará gracias a realizaciones concretas, que creen en primer lugar una solidaridad de hecho”.

- [3] Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

- [4] Reglamento (CE) n.º 864/2007 del Parlamento Europeo y del Consejo, de 11 de julio de 2007, relativo a la ley aplicable a las obligaciones extracontractuales (Roma II) (DO L 199 de 31.7.2007, p. 40).

- [5] Textos Aprobados, P8_TA(2015)0390.

- [6] Reglamento (CE) n.º 428/2009 del Consejo por el que se establece un régimen comunitario de control de las exportaciones, la transferencia, el corretaje y el tránsito de productos de doble uso (DO L 341 de 29.5.2009, p. 1).

19. Derechos de autor

La Comisión de asuntos jurídicos del Parlamento Europeo, con Mady Delvaux como ponente,  elabora este proyecto de informe con recomendaciones destinadas a la Comisión respecto a normas de Derecho civil sobre robótica (2015/2103(INL)), en fecha 31/05/2016, una vez ha sido visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea, los artículos 46 y 52 de su Reglamento y el informe de la Comisión de Asuntos Jurídicos y las opiniones de la Comisión de Empleo y Asuntos Sociales, de la Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria, de la Comisión de Industria, Investigación y Energía, y de la Comisión de Mercado Interior y Protección del Consumidor (A8-0000/2016).

Mady Delvaux est née le 11 octobre 1950 à Luxembourg-Ville. Est députée européenne luxembourgeoise depuis mai 2014.

Membre du Groupe des Socialistes & Démocrates au Parlement européen, elle est élue Vice-présidente de la commission des affaires juridiques et suppléante de la commission des affaires économiques et monétaires. Elle fait également partie du comité consultatif sur le code de conduite des députés européens.

Entre 1989 et 2014, Mady occupe plusieurs postes ministériels.

Entre 2004 et 2014, elle est Ministre de l’Éducation nationale et de la Formation professionnelle.

En tant que Ministre de la Sécurité sociale, des Transports et des Communications de 1994 à 1999, elle s’occupe entre autres de la mise en place de la nouvelle assurance dépendance, de la réorganisation des chemins de fer d’après les directives européennes et de la libéralisation des services téléphoniques.

Nommée en 1989 secrétaire d’État à la Santé, à la Sécurité sociale, à la Jeunesse et à l’Éducation physique et aux Sports, elle y engage notamment la réforme de l’assurance maladie.

De 1999 à 2004, Mady est membre de la Chambre des députés. En octobre 1987, elle est élue pour la première fois conseillère communale de la Ville de Luxembourg, mandat que les électeurs lui confient à nouveau en 1999.

Après ses études à la Sorbonne, Mady Delvaux-Stehres est professeur au Lycée Michel Rodange à Luxembourg-Ville jusqu’en 1989.