Resumen: Por su actualidad, viabilidad
tecnológica y coincidencia con la temática innovadora de este blog, siempre
conciliándola con la perspectiva jurídica, se transcribe la Propuesta de Resolución
del Parlamento Europeo con recomendaciones destinadas a la Comisión respecto a
normas de Derecho civil sobre robótica (2015/2103(INL)). Se han intercalado,
claramente identificadas, referencias a artículos publicados en este mismo blog
que amplían los conceptos tratados en algunos apartados.
Autor del artículo
|
Colaboración
|
|
Comisión de asuntos jurídicos del Parlamento Europeo
|
||
Actualizado
|
30 de junio de
2016
|
Índice
1. Introducción
2. Principios generales3. Responsabilidad
4. Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil
5. Principios éticos
6. Una agencia europea
7. Derechos de propiedad intelectual y flujo de datos
8. Normalización, seguridad y protección
9. Vehículos autónomos
10. Robots asistenciales
11. Robots médicos
12 Rehabilitación e intervenciones en el cuerpo humano
13. Drones (RPAS)
14. Previsiones en el ámbito de la formación y el empleo
15. Responsabilidad
16. Aspectos internacionales
17. Aspectos finales
A.0 Anexo a la Propuesta de
Resolución: recomendaciones detalladas respecto al contenido de la propuesta
solicitada
A.1
Definición y clasificación de los «robots inteligentes»A.2 Registro de los «robots inteligentes»
A.3 Responsabilidad civil
A.4 Carta sobre robótica
A.5 Licencia para los diseñadores
A.6 Licencia para los usuarios
E.0 Exposición de motivos
E.1
AntecedentesE.2 Consideraciones generales
E.3 Fundamento jurídico y subsidiariedad
E.4 Principios generales y éticos
E.5 La normalización, la seguridad y la protección
E.6 Normas para la utilización específica de robots e inteligencia artificial
E.7 Normas sobre responsabilidad
E.8 La robótica y la inteligencia artificial en el ámbito social
E.9 Aspectos internacionales
18. Referencias
19. Derechos de autor
NOTA DEL EDITOR: Estamos
acostumbrados a que el Derecho vaya por detrás respecto a los cambios que
experimenta la sociedad, especialmente en lo que se refiere a avances
tecnológicos. Ello suele ser así para evitar legislar sobre el caso particular
y no distorsionar por sistema a la innovación tecnológica. No obstante, en este
caso en que tan solo una apreciación informal de riesgos presenta elevados
valores respecto a que en un futuro la humanidad no sea dueña de su
propio destino si la inteligencia artificial es capaz de superar a la humana, o los cambios
socio-económicos que representarían la escasez de empleos reservados a los
humanos, es de celebrar que el Parlamento Europeo se adelante mediante
recomendaciones que en un futuro pueden devenir en un nuevo marco jurídico para
la Unión.
1. Introducción
A. Considerando que, desde el monstruo de
Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por
el Golem de Praga o el robot de Karel Čapek —que fue quien acuñó el término—,
los seres humanos han fantaseado siempre con la posibilidad de construir
máquinas inteligentes, sobre todo androides con características humanas;
B. Considerando que, ahora que la humanidad se
encuentra a las puertas de una era en la que robots, bots, androides y otras
formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas
a desencadenar una nueva revolución industrial —que va a afectar probablemente
a todos los estratos de la sociedad—, resulta de vital importancia que el
legislador tenga en cuenta todas las consecuencias que ello entraña;
C.
Considerando que, entre 2010 y 2014, las
ventas de robots aumentaron un 17 % de media cada año, que en 2014 las ventas
registraron el mayor incremento anual observado hasta ahora —a saber, un 29 %—,
y que los principales motores de este crecimiento son los proveedores de
componentes de automoción y la industria electrónica y eléctrica; que, a lo
largo del último decenio, se han triplicado las solicitudes anuales de patentes
en el sector de la tecnología robótica;
D. Considerando que, a corto y medio plazo, se
espera que la robótica y la inteligencia artificial traigan consigo eficiencia
y ahorro, no solo en la producción y el comercio, sino también en ámbitos como
el transporte, la asistencia sanitaria, la educación y la agricultura, y que,
gracias a ellas, se podrá evitar que los seres humanos se expongan a
condiciones peligrosas, como, por ejemplo, las que entraña la limpieza de
lugares contaminados con sustancias tóxicas; que, a largo plazo, el potencial
para generar prosperidad es prácticamente ilimitado;
E. Considerando que, al mismo tiempo, el
desarrollo de la robótica y la inteligencia artificial puede conllevar que los
robots asuman gran parte del trabajo que ahora realizan los seres humanos,
cuestión esta que genera interrogantes sobre el futuro del empleo y la
viabilidad de los sistemas de seguridad social en caso de que se mantenga la
actual base fiscal, y que podría acarrear una mayor desigualdad en la
distribución de la riqueza y el poder;
F. Considerando que, entre las cuestiones que
suscitan preocupación, se halla también la de la seguridad física, en caso, por
ejemplo, de que la programación de un robot falle, así como la de las posibles
consecuencias de un fallo del sistema o de ataques informáticos contra robots
interconectados y sistemas robóticos en un momento en el que empiezan a usarse,
o están a punto de usarse, aplicaciones cada vez más autónomas, ya sea en
relación con automóviles y drones, robots asistenciales o robots utilizados a
fines policiales y de mantenimiento del orden público;
G. Considerando que muchas cuestiones básicas de
la protección de datos ya son objeto de examen en el marco general de internet
y del comercio electrónico, pero que quizá sea necesario abordar otros aspectos
relativos a la propiedad de los datos y la protección de los datos personales y
la privacidad, habida cuenta de que las aplicaciones y los dispositivos
comunicarán entre sí y con las bases de datos sin intervención humana alguna, o
incluso sin que nadie tenga conocimiento de ello;
H. Considerando que, aunque quizá resulte
difícil valorar las «consecuencias invisibles» que esto tendrá para la dignidad
humana, será necesario examinarlas en caso de que los robots sustituyan a los
humanos a la hora de prestar cuidados y hacer compañía; que las cuestiones de
la dignidad humana también pueden plantearse en el contexto de la
rehabilitación y de las intervenciones en el cuerpo humano;
I. Considerando que, en última instancia, existe
la posibilidad de que, dentro de unos decenios, la inteligencia artificial
supere la capacidad intelectual humana de un modo tal que, de no estar
preparados para ello, podría suponer un desafío a la capacidad de la humanidad
de controlar su propia creación y, por ende, quizás también a la capacidad de
ser dueña de su propio destino y garantizar la supervivencia de la especie;
J. Considerando que en varios países
extranjeros, como los EE.UU., Japón, China y Corea del Sur, se están planteando
adoptar medidas reguladoras en el ámbito de la robótica y la inteligencia
artificial, y que en algunos casos ya han empezado a hacerlo; que algunos
Estados miembros han empezado también a reflexionar sobre posibles cambios
legislativos a fin de tener en cuenta las nuevas aplicaciones de dichas
tecnologías;
K. Considerando que la industria europea pueda
beneficiarse de un enfoque regulador coherente a escala europea, que defina
unas condiciones previsibles y lo suficientemente claras gracias a las cuales
las empresas puedan desarrollar aplicaciones y planificar sus modelos de
negocio a escala europea, y que garantice al mismo tiempo que la Unión y sus
Estados miembros mantengan el control sobre la reglamentación que se ha de
establecer, de modo que no se vean obligados a adoptar normas establecidas por
otros —es decir, por terceros Estados que también encabezan el desarrollo de la
robótica y la inteligencia artificial— o a vivir sometidas a ellas;
2. Principios generales
L. Considerando que, hasta que los robots sean
conscientes de su propia existencia o sean fabricados con esa cualidad, si es
que ese momento llega algún día, debe entenderse que las leyes de Asimov [1] van
dirigidas a los diseñadores, fabricantes y operadores de robots, dado que
dichas leyes no pueden traducirse en código de máquina;
M. Considerando, no obstante, que es necesario
disponer de una serie de normas en materia de responsabilidad y deontología que
reflejen los valores intrínsecamente europeos y humanistas que caracterizan la
contribución de Europa a la sociedad;
N. Considerando que la Unión podría desempeñar
un papel esencial a la hora de establecer principios éticos básicos de obligado
cumplimiento para el desarrollo, la programación y la utilización de robots y
de la inteligencia artificial, así como para la incorporación de dichos
principios en la normativa y los códigos de conducta europeos, con el fin de
conformar la revolución tecnológica de modo que sirva a la humanidad y se
compartan al máximo los beneficios de una robótica avanzada y de la
inteligencia artificial, evitando, dentro de lo que cabe, posibles escollos;
O. Considerando que, en Europa, corresponde
adoptar un enfoque gradual, prudente y pragmático como el que propugnaba Jean
Monnet [2];
P. Considerando que, dada la fase alcanzada en
el desarrollo de la robótica y la inteligencia artificial, procede empezar por
las cuestiones relativas a la responsabilidad civil y examinar si una
responsabilidad objetiva, basada en quien esté en mejores condiciones de
ofrecer garantías, no constituiría el mejor punto de partida;
3. Responsabilidad
Q. Considerando que, gracias a los
impresionantes avances tecnológicos de la última década, no es solo que los
robots puedan realizar hoy en día actividades otrora típica y exclusivamente
humanas, sino que el desarrollo de rasgos cognitivos y autónomos — como la
capacidad de aprender de la experiencia y tomar decisiones independientes— ha
hecho que estos robots se asimilen cada vez más a agentes que interactúan con
su entorno y son capaces de modificarlo de forma significativa; que, en este
contexto, la responsabilidad jurídica derivada de la actuación perjudicial de
un robot se torna una cuestión crucial;
R. Considerando que la autonomía de un robot
puede definirse como la capacidad de tomar decisiones y aplicarlas en el mundo
exterior, con independencia de cualquier control o influencia externa; que esa
autonomía es puramente tecnológica y que su grado depende del grado de
complejidad de la interacción del robot con su entorno que se haya previsto al
diseñarlo;
S. Considerando que, cuanto más autónomos sean
los robots, menos se los podrá considerar simples instrumentos en manos de
otros agentes (como el fabricante, el propietario, el usuario, etc.); que,
debido a esto, la normativa general sobre responsabilidad resulta insuficiente
y precisa de nuevas normas que se centren en cómo una máquina puede
considerarse parcial o totalmente responsable de sus actos u omisiones; que,
como consecuencia de ello, resulta cada vez más urgente abordar la cuestión
fundamental de si los robots deben tener
personalidad jurídica;
T. Considerando que, en definitiva, la autonomía
de los robots suscita la cuestión de su condición y pertenencia a una de las categorías jurídicas existentes —es decir,
si deben considerarse personas físicas, personas jurídicas, animales u
objetos—, o de la creación de una nueva
categoría, con sus propias características y repercusiones en lo que se
refiere a atribución de derechos y obligaciones, incluida la responsabilidad
por daños;
U. Considerando que, en el actual marco jurídico,
los robots no pueden, en sí mismos, ser considerados responsables de los actos
u omisiones que causan daño a terceros; que las normas vigentes en materia de
responsabilidad abarcan aquellos casos en los que es posible remontarse hasta
un agente humano concreto —como el fabricante, el propietario o el usuario— a
quien imputar la acción u omisión del robot, y en los que dicho agente podía
haber previsto y evitado la actuación perjudicial del robot; que, además, los
fabricantes, los propietarios o los usuarios podrían ser considerados
objetivamente responsables de los actos u omisiones de un robot si, por
ejemplo, el robot estuviera clasificado como un objeto peligroso o entrara
dentro del ámbito de aplicación de la normativa sobre responsabilidad por daños
causados por productos defectuosos;
V. Considerando que, en el supuesto de que un
robot pueda tomar decisiones autónomas, la normativa tradicional no bastará
para establecer su responsabilidad, ya que con ella no se puede ni determinar
la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte
que repare el daño ocasionado;
X. Considerando que las deficiencias del actual
marco jurídico se constatan en el ámbito de la responsabilidad contractual en
la medida en que la existencia de máquinas concebidas para elegir a sus
contrapartes, negociar cláusulas contractuales, celebrar contratos y decidir si
estos se aplican y cómo imposibilita la aplicación de las normas tradicionales,
lo que pone de relieve la necesidad de adoptar nuevas normas actualizadas;
Y. Considerando
que, en materia de responsabilidad extracontractual, la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985 [3], solo cubre los daños ocasionados por los
defectos de fabricación de un robot a condición de que el perjudicado puede
demostrar el daño real, el defecto del producto y la relación de causa a efecto
entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin
culpa);
Z. Considerando que, pese al ámbito de
aplicación de la Directiva 85/374/CEE, el
marco jurídico actual no sería suficiente para cubrir los daños causados
por la nueva generación de robots, en la medida en que se les puede dotar de
capacidades de adaptación y aprendizaje que entrañan un cierto grado de
imprevisibilidad en su comportamiento, ya que podrían aprender de forma
autónoma de su propia experiencia variable e interactuar con su entorno de
forma única e imprevisible;
4. Principios generales relativos al desarrollo de la robótica y
la inteligencia artificial para uso civil
01. Pide
a la Comisión que proponga una definición europea común de robot autónomo
inteligente y de sus distintas subcategorías, tomando en consideración las
siguientes características de un robot inteligente:
·
Adquiere autonomía mediante sensores y/o
mediante el intercambio de datos con su entorno (interconectividad), e intercambia
y analiza datos.
·
Dispone de capacidad de autoaprendizaje
(criterio facultativo).
·
Tiene un soporte físico.
·
Adapta su comportamiento y acciones al
entorno;
02. Considera
que debe crearse un sistema de registro
de robots avanzados y pide a la Comisión que establezca criterios para la
clasificación de los robots con vistas a identificar a aquellos que tendrían
que registrarse;
03. Subraya
que muchas aplicaciones robóticas están todavía en fase experimental; se
congratula de que cada vez se estén financiando más proyectos de investigación
con fondos nacionales y europeos; pide a la Comisión y a los Estados miembros
que refuercen los instrumentos financieros destinados a apoyar proyectos de
investigación en materia de robótica y TIC; destaca que es necesario destinar
recursos suficientes para buscar soluciones a los retos sociales y éticos que
plantean el desarrollo tecnológico y sus aplicaciones;
04. Pide
a la Comisión que fomente los programas de investigación que incluyan un mecanismo
de comprobación de los resultados a corto plazo para entender cuáles son los verdaderos riesgos y oportunidades
asociados con la difusión de estas tecnologías; pide a la Comisión que aúne
todos sus esfuerzos para velar por que, en estas tecnologías, se produzca una
transición fluida, que abarque desde la investigación hasta la comercialización
en el mercado;
5. Principios éticos
05. Señala
que el potencial de empoderamiento que encierra el recurso a la robótica se ve
matizado por una serie de tensiones o riesgos relacionados con la seguridad
humana, la intimidad, la integridad, la dignidad, la autonomía y la propiedad
de los datos;
06. Considera
que es preciso un marco ético que sirva de orientación en materia de diseño,
producción y uso de los robots, a fin de complementar las recomendaciones
jurídicas expuestas en el presente informe, y el acervo nacional y de la Unión
en vigor; propone, en el anexo a la presente Resolución, un marco en forma de
carta que comprenda un código de conducta para los ingenieros en robótica, un
código deontológico destinado a los comités de ética de la investigación para
la revisión de los protocolos de robótica, y licencias tipo para los
diseñadores y los usuarios;
07. Señala
que este marco ético orientador debe basarse en los principios de beneficencia,
no maleficencia y autonomía, así como en los principios consagrados en la Carta
de los derechos fundamentales de la Unión, como la dignidad humana y los
derechos humanos, la igualdad, la justicia y la equidad, la no discriminación y
no estigmatización, la autonomía y la responsabilidad individual, el
consentimiento informado, la privacidad y la responsabilidad social, además de
en los actuales códigos y prácticas éticas;
NOTA DEL EDITOR: Sobre ética puede consultarse en este mismo
blog el artículo “Prolegómenos
para una ética digital”.
6. Una agencia europea
08. Defiende
la creación de una agencia europea para la robótica y la inteligencia
artificial que proporcione la experiencia técnica, ética y normativa necesaria
para apoyar la labor de los agentes públicos pertinentes, tanto a nivel de la
Unión como a nivel de los Estados miembros, a la hora de garantizar una
respuesta oportuna y bien informada ante las nuevas oportunidades y retos que
plantea el desarrollo tecnológico de la robótica;
09. Considera
justificado, en vista del potencial recurso a la robótica y de la actual
dinámica de inversiones, que esa agencia europea esté dotada de un presupuesto
adecuado y de un personal compuesto por expertos en reglamentación, expertos
técnicos y expertos en deontología externos dedicados a controlar, desde un punto de vista intersectorial y
pluridisciplinar, las aplicaciones basadas en la robótica, a determinar las
normas en que se basan las mejores prácticas y, en su caso, a recomendar
medidas reguladoras, definir nuevos principios y hacer frente a posibles
problemas de protección de los consumidores y desafíos sistémicos; pide a la
Comisión y a la agencia europea que informen anualmente al Parlamento de los
últimos avances que se produzcan en robótica;
7. Derechos de propiedad intelectual y flujo de datos
10. Constata
que no hay ninguna disposición jurídica que se aplique específicamente a la
robótica, pero que las doctrinas y los regímenes jurídicos vigentes pueden
aplicarse fácilmente a esta, aunque algunos aspectos requieran especial
consideración; pide a la Comisión que proponga un enfoque equilibrado en
materia de derechos de propiedad intelectual aplicados a las normas sobre
equipos y programas informáticos, así como códigos que protejan la innovación
y, al mismo tiempo, la estimulen; pide a la Comisión que elabore criterios
relativos a una «creación intelectual propia» aplicables a las obras protegidas
por derechos de autor creadas por ordenadores o robots;
11. Pide
a la Comisión y a los Estados miembros que velen por que, en la elaboración de
cualquier política de la Unión en materia de robótica, se incorporen garantías relativas a la privacidad y la
protección de datos, de conformidad con los principios de necesidad y
proporcionalidad; pide, en este sentido, a la Comisión que fomente el
establecimiento de normas sobre los conceptos de protección de la intimidad
desde el diseño y de protección de datos por defecto, y sobre el consentimiento
informado y el cifrado;
12. Señala
que el uso de datos personales como «moneda de cambio» con la que se pueden
«adquirir» servicios plantea nuevas cuestiones que necesitan ser aclaradas;
hace hincapié en que el uso de datos personales como «moneda de cambio» no debe
dar lugar al incumplimiento de los principios básicos que regulan el derecho a
la intimidad y la protección de datos;
8. Normalización, seguridad y protección
13.
Pide
a la Comisión que continúe trabajando en pos de la armonización internacional
de las normas técnicas, en particular junto con los organismos europeos de
normalización y la Organización Internacional de Normalización, a fin de evitar
la fragmentación del mercado interior y responder a las preocupaciones de los
consumidores; pide a la Comisión que analice la legislación europea vigente con
el fin de comprobar la necesidad de adaptarla en vista del desarrollo de la
robótica y la inteligencia artificial;
14. Hace
hincapié en que los ensayos de robots en escenarios reales es esencial para
determinar y evaluar los riesgos que estos puedan entrañar, así como su
desarrollo tecnológico más allá de la mera fase de laboratorio experimental;
subraya, a este respecto, que los ensayos de robots en escenarios reales, en
particular, en ciudades y carreteras, plantea numerosos problemas y exige un
mecanismo de seguimiento eficaz; pide a la Comisión que elabore criterios
uniformes en todos los Estados miembros para que estos puedan identificar los
ámbitos en los que los experimentos con robots están permitidos;
9. Vehículos autónomos
15. Considera
que el sector del automóvil es el que
precisa más urgentemente de normas de ámbito europeo y mundial que
garanticen el desarrollo transfronterizo de los vehículos autónomos con el fin
de explotar plenamente su potencial económico y beneficiarse de los efectos
positivos de las tendencias tecnológicas; subraya que la fragmentación de los
enfoques normativos podría obstaculizar su puesta en práctica y poner en
peligro la competitividad europea; toma nota de que, si bien las actuales
normas de Derecho internacional privado en materia de accidentes de tráfico
aplicables dentro de la Unión no necesitan modificarse urgentemente para
adaptarlas al desarrollo de los vehículos autónomos, la simplificación del
sistema dual con el que se determina actualmente la legislación aplicable
(basado en el Reglamento (CE) n.º
864/2007 del Parlamento Europeo y del Consejo [4] y el Convenio de La Haya de 1971 sobre la ley aplicable en materia de
accidentes de circulación por carretera) mejoraría la seguridad jurídica y
limitaría las posibilidades de búsqueda del foro más favorable;
NOTA DEL EDITOR: Sobre vehículos autónomos puede consultarse en
este mismo blog el artículo “Análisis
jurídico de los vehículos autónomos: tecnología, ética y regulación”.
10. Robots asistenciales
16. Señala
que el contacto humano es uno de los aspectos fundamentales de los cuidados;
considera que sustituir a las personas por robots podría deshumanizar la prestación de cuidados;
11. Robots médicos
17. Subraya
la importancia de una formación y una preparación adecuadas de los médicos y
auxiliares sanitarios con el fin de garantizar el nivel más elevado posible de
competencia profesional, y de proteger la salud de los pacientes; hace hincapié
en la necesidad de definir los requisitos
profesionales mínimos que deberá cumplir un cirujano para poder utilizar
los robots quirúrgicos; subraya la especial importancia que reviste la
formación de los usuarios para que puedan familiarizarse con los requisitos
tecnológicos en este ámbito; llama la atención sobre la creciente tendencia al
autodiagnóstico mediante el uso de robots móviles que realizan diagnósticos y
que podrían acabar por asumir el papel de los médicos;
12 Rehabilitación e intervenciones en el cuerpo humano
18. Señala
el gran potencial de la robótica en el ámbito de la rehabilitación de órganos
dañados y el restablecimiento de funciones corporales reducidas, aunque es
consciente de las complejas cuestiones que ello suscita, en particular por las
posibilidades de intervención en el cuerpo humano; pide que se establezcan comités de ética sobre robótica en los
hospitales y otras instituciones sanitarias, encargados de examinar y
contribuir a resolver problemas éticos inusuales y complejos relacionados con
cuestiones que afectan al cuidado y tratamiento de los pacientes; pide a la
Comisión y a los Estados miembros que desarrollen directrices para ayudar al
establecimiento y funcionamiento de dichos comités;
13. Drones (RPAS)
19. Subraya
la importancia de un marco europeo de los sistemas de aeronaves pilotadas a
distancia (RPAS) para preservar la seguridad y privacidad de los ciudadanos de
la Unión y ofrecerles protección, y pide a la Comisión que realice un
seguimiento de las recomendaciones hechas en la Resolución del Parlamento
Europeo, de 29 de octubre de 2015, sobre el uso seguro de los sistemas de
aeronaves pilotadas de forma remota (RPAS), comúnmente conocidos como vehículos
aéreos no tripulados (UAV), en el ámbito de la aviación civil [5];
NOTA DEL EDITOR: Sobre drones puede consultarse en este mismo
blog el artículo “Dictamen
01/2015 sobre la privacidad y la protección de datos en relación con la
utilización de aviones no tripulados (drones)”.
14. Previsiones en el ámbito de la formación y el empleo
20. Llama
la atención sobre las previsiones de la Comisión según las cuales, de aquí a
2020, Europa podría tener que enfrentarse a una escasez de hasta 825 000
profesionales en el sector de las TIC, a la vez que el 90 % de los puestos de
trabajo requerirá al menos unas capacidades digitales básicas; acoge con
satisfacción la iniciativa de la Comisión de proponer un plan de trabajo para
la posible utilización y revisión del marco de competencias digitales, con
descriptores de competencias digitales para todos los niveles de aprendizaje;
21. Considera
que la industria digital, las propias mujeres y la economía europea saldrían
ganando si se consiguiera que más mujeres jóvenes se decantaran por una carrera
digital y si se contratara a más mujeres en empleos digitales; pide a la
Comisión y a los Estados miembros que pongan en marcha iniciativas para apoyar
a las mujeres en el sector de las TIC y para mejorar su capacitación en el
ámbito digital;
22. Pide
a la Comisión que empiece a supervisar más estrechamente la evolución del
empleo, con especial énfasis en la creación y pérdida de puestos de trabajo en
los diferentes campos/ámbitos de calificación, con objeto de determinar en qué
ámbitos se está creando empleo y en cuáles se está destruyendo debido a una mayor
utilización de los robots;
23. Considera,
habida cuenta de los efectos que el desarrollo y la implantación de la robótica
y la inteligencia artificial podrían tener en el empleo y, por ende, en la
viabilidad de los sistemas de seguridad social de los Estados miembros, que
debería examinarse la necesidad de exigir a las empresas que informen acerca de
en qué medida y proporción la robótica y la inteligencia artificial contribuyen
a sus resultados económicos, a efectos de fiscalidad y del cálculo de las
cotizaciones a la seguridad social; opina que, a la luz de la repercusión que
la robótica y la inteligencia artificial podrían tener en el mercado de
trabajo, debería considerarse seriamente la posibilidad de introducir una renta básica universal, e invita a
todos los Estados miembros a que reflexionen sobre ello;
15. Responsabilidad
24. Considera
que la responsabilidad civil de los
robots es una cuestión fundamental que debe abordarse a escala de la Unión
con el fin de garantizar el mismo grado de transparencia, coherencia y
seguridad jurídica en toda la Unión Europea para beneficio de los consumidores
y las empresas;
25.
Pide a la Comisión que presente, sobre la base del artículo 114 del Tratado de
Funcionamiento de la Unión Europea, una propuesta de instrumentos legislativos
sobre los aspectos jurídicos de la evolución de la robótica y de la
inteligencia artificial previsible en los próximos 10 a 15 años, de acuerdo con
las recomendaciones detalladas que figuran en el anexo; insta asimismo a la
Comisión a que, una vez que el desarrollo tecnológico permita la concepción de
robots cuyo grado de autonomía sea más elevado de lo razonablemente previsible
en la actualidad, proponga una revisión de la legislación pertinente a su
debido tiempo;
26.
Considera que, independientemente del instrumento jurídico futuro que se escoja
en materia de responsabilidad de los robots en casos distintos a los perjuicios
patrimoniales, dicho instrumento legislativo no debería en modo alguno limitar
el tipo o el alcance de los daños y perjuicios que puedan ser objeto de
compensación, ni tampoco limitar la naturaleza de dicha compensación, por el
único motivo de que los daños hayan sido causados por un agente no
perteneciente a la especie humana;
27.
Considera
que el futuro instrumento legislativo debe prever, como regla general, la
aplicación de la responsabilidad objetiva, lo que únicamente exige probar que
se ha producido un daño y el establecimiento de un nexo causal entre el
comportamiento perjudicial del robot y los daños causados a la persona
perjudicada;
28. Considera
que en principio, una vez que las partes responsables hayan sido identificadas
en última instancia, su responsabilidad
será proporcional al nivel real de las instrucciones dadas a los robots y a su
autonomía, por lo que cuanto mayor sea la capacidad de aprendizaje o la
autonomía, menor será la responsabilidad de las otras partes, y cuanto más
larga haya sido la «educación» del robot, mayor será la responsabilidad de su
«profesor»; observa, en particular, que al tratar de determinar la
responsabilidad real de los daños, las competencias adquiridas a través de la
«educación» de un robot no deberían confundirse con las competencias
estrictamente dependientes de su capacidad de aprender de modo autónomo;
29.
Señala que una posible solución a la complejidad de la asignación de
responsabilidad por los daños causados por robots cada vez más autónomos,
podría ser el establecimiento de régimen
de seguro obligatorio, como ya ocurre, por ejemplo, con los coches; no
obstante, observa que, a diferencia del régimen de seguros en materia de
circulación por carretera, en los que el seguro cubre tanto las actuaciones
humanas como los fallos, un sistema de seguros para robots podría basarse en la
obligación del fabricante de suscribir un seguro para los robots autónomos que
produce;
30.
Considera que, tal como sucede con el seguro de vehículos de motor, dicho sistema
podría completarse con un fondo para garantizar la reparación de daños en los
casos de ausencia de una cobertura de seguro; pide al sector asegurador que
desarrolle nuevos productos que estén en consonancia con los avances de la
robótica;
31.
Pide a la Comisión que, cuando realice una evaluación de impacto de su futuro
instrumento legislativo, explore las implicaciones de todas las posibles
soluciones jurídicas, tales como:
- Establecer un régimen de seguro obligatorio, similar al existente para los automóviles, en el que los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por los posibles daños causados por sus robots.
- Establecer un fondo de compensación que no solo garantizaría la reparación del daño causado por un robot ante la ausencia de un seguro, que en cualquier caso seguiría siendo su principal objetivo, sino también la de permitir distintas operaciones financieras en interés del robot, tales como inversiones, donaciones o la remuneración a robots inteligentes autónomos por sus servicios, que podrían transferirse al fondo;
- Establecer un régimen de responsabilidad limitada para el fabricante, el programador, el propietario o el usuario en la medida en que los robots inteligentes autónomos dispondrían de un fondo de compensación (al que todas las partes podrían contribuir en proporciones variables), y solo podrían invocarse los daños materiales dentro de los límites de dicho fondo, otros tipos de daños no estarían sujetas a tales límites;
- Decidir si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o entre pagos periódicos durante la vida del robot;
- Crear un número de inscripción individual que figure en un registro específico de la Unión, que garantice la asociación entre el robot y el fondo del que depende, y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes;
- Crear una personalidad jurídica específica para los robots, de modo que al menos los robots autónomos más complejos puedan ser considerados personas electrónicas con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar; la personalidad electrónico se aplicaría a los supuestos en que los robots puedan tomar decisiones autónomas inteligentes o interactuar con terceros de forma independiente.
16. Aspectos internacionales
32.
Señala asimismo la necesidad de introducir modificaciones a algunos acuerdos
internacionales, como el Convenio de Viena sobre la circulación vial y el
Convenio de la Haya sobre accidentes de circulación por carretera.
33. Anima encarecidamente a la comunidad
internacional, bajos los auspicios de las Naciones Unidas, a cooperar para
establecer normas reglamentarias;
34.
Destaca que las restricciones y condiciones establecidas en el «Reglamento del doble uso» [6]
sobre el comercio de los productos de doble uso (productos, programas
informáticos y tecnología que puedan utilizarse para aplicaciones tanto civiles
como militares o que puedan contribuir a la proliferación de armas de
destrucción masiva) deberían extenderse
a las aplicaciones de la robótica;
17. Aspectos finales
35.
Pide a la Comisión que presente, sobre la base del artículo 225 del Tratado de
Funcionamiento de la Unión Europea, una propuesta de Directiva sobre la reglas
del Derecho civil en materia de robótica, con arreglo a las recomendaciones
detalladas que figuran en el anexo;
36.
Constata que estas recomendaciones respetan los derechos fundamentales y el
principio de subsidiariedad;
37.
Opina que la propuesta solicitada no tiene implicaciones financieras;
38.
Encarga a su Presidente que transmita la presente propuesta y las
recomendaciones que se detallan en el anexo a la Comisión y al Consejo.
ANEXO A LA PROPUESTA DE RESOLUCIÓN:
RECOMENDACIONES DETALLADAS RESPECTO AL CONTENIDO DE LA PROPUESTA SOLICITADA
A.1 Definición y clasificación de los «robots inteligentes»
Debe establecerse una
definición europea común de robots autónomos «inteligentes», cuando proceda,
incluidas las definiciones de sus subcategorías, teniendo en cuenta las
siguientes características:
- La capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el análisis de dichos datos;
- La capacidad de aprender a través de la experiencia y la interacción;
- La forma del soporte físico del robot;
- La capacidad de adaptar su comportamiento y acciones al entorno.
A.2 Registro de los
«robots inteligentes»
A efectos de la trazabilidad
y para facilitar la aplicación de nuevas recomendaciones, cabe introducir un
sistema de registro de robots avanzados, basado en los criterios establecidos
para la clasificación de los robots. Tanto el sistema de registro como el
registro deberían establecerse a escala de la Unión, cubrir el mercado interior
y ser gestionados por una agencia de la Unión para la robótica y la
inteligencia artificial.
A.3 Responsabilidad
civil
Cualquier solución jurídica
elegida en materia de responsabilidad de los robots para los supuestos
diferentes de los daños materiales no debería en modo alguno limitar el tipo o
el alcance de los daños y perjuicios que puedan ser objeto de compensación, y
tampoco debería limitar la naturaleza de dicha compensación, basándose únicamente
en que los daños han sido causados por un agente no perteneciente a la especie
humana.
El futuro instrumento
legislativo debería prever la aplicación de una regla de responsabilidad
estricta norma para los daños causados por los «robots inteligentes», exigiendo
solo la prueba de una relación de causalidad entre el comportamiento
perjudicial del robot y el daño causado a la parte perjudicada.
Sería conveniente establecer
un régimen de seguro obligatorio, que podría basarse en la obligación del productor
de suscribir un seguro para los robots autónomos por él fabricados.
El sistema de seguro debería
complementarse con un fondo para garantizar la compensación de los daños y
perjuicios en los supuestos en los que no exista una cobertura de seguro.
Interoperabilidad, acceso al
código fuente y derechos de propiedad intelectual
Cabría garantizar la
interoperabilidad de los robots autónomos conectados a la red autónoma que
interactúan entre sí. El acceso al código fuente debería estar disponible
cuando fuera necesario para investigar tanto los accidentes como los daños
causados por «robots inteligentes».
Sería conveniente establecer
criterios aplicables a la «creación intelectual» de obras protegidas por los
derechos de autor producidas mediante ordenadores o robots.
Comunicación de la
utilización de robots y la inteligencia artificial, por parte de las empresas
Las empresas deberían estar
obligadas a comunicar la siguiente información:
- El número de «robots inteligentes» que utilizan.
- Los ahorros realizados en cotizaciones a la seguridad social gracias a la utilización de la robótica en lugar del personal humano.
- Una evaluación de la cuantía y la proporción de los ingresos de la empresa procedentes de la utilización de la robótica y la inteligencia artificial.
A.4 Carta sobre robótica
La Comisión, a la hora de
proponer una nueva reglamentación sobre robótica, ha de tener en cuenta los
principios recogidos en la siguiente carta sobre robótica:
CARTA SOBRE ROBÓTICA
La propuesta de un código de conducta ética
en el campo de la robótica sentará las bases para la identificación, la
supervisión y el cumplimiento de los principios éticos fundamentales desde la
fase de diseño y desarrollo.
El marco debe concebirse de un modo
reflexivo que permita efectuar ajustes individuales caso por caso para evaluar
si un determinado comportamiento es adecuado o equivocado en una situación
determinada y tomar decisiones conforme a una jerarquía de valores
preestablecidos.
El código no debería reemplazar la
necesidad de abordar los principales retos jurídicos en este ámbito, sino que
ha de tener una función complementaria. Facilitará más bien, la categorización
ética de la robótica, reforzará los esfuerzos de innovación responsable en este
ámbito y responderá a las preocupaciones de los ciudadanos.
Convendría hacer especial hincapié en las
fases de investigación y desarrollo de la trayectoria tecnológica pertinente
(proceso de concepción, análisis ético, controles de auditoría, etc.). El
código de conducta debería tener como objetivo no solo la necesidad de abordar
la necesidad de cumplimiento de determinadas normas éticas por parte de
investigadores, profesionales, usuarios y diseñadores, sino también de
introducir un procedimiento para la resolución de los dilemas éticos y permitir
que estos sistemas puedan funcionar de una manera éticamente responsable.
CÓDIGO DE CONDUCTA ÉTICA
PARA LOS INGENIEROS EN ROBÓTICA
PREÁMBULO
- El código de conducta invita a todos los investigadores y diseñadores a actuar de forma responsable y con la máxima consideración a la necesidad de respetar la dignidad, intimidad y la seguridad de las personas.
- El código pide una estrecha colaboración entre todas las disciplinas a fin de garantizar que se lleve a cabo la investigación en robótica en la Unión de un modo seguro, ético y eficaz.
- El código de conducta cubre todas las actividades de investigación y desarrollo en el campo de la robótica.
- El código de conducta es voluntario y ofrece un conjunto de principios generales y directrices para las medidas que adopten todas las partes interesadas.
- Se invita a los organismos de financiación en materia de robótica, los centros de investigación, los investigadores y los comités de ética a que examinen desde las primeras etapas, las consecuencias futuras de las tecnologías u objetos que se investigan y de crear una cultura de la responsabilidad para hacer frente a los retos y oportunidades que puedan plantearse en el futuro.
- Los organismos públicos y privados de financiación de la investigación en el ámbito de la robótica deberían exigir la realización y presentación de una evaluación del riesgo para cada propuesta de financiación de la investigación en la materia. Un código de estas características debería considerar que la responsabilidad incumbe a los seres humanos, no a los robots.
Los investigadores en el campo de la robótica deberían comprometerse a
adoptar una conducta estricta en materia de ética y de deontología así como a
respetar los siguientes principios:
- Beneficencia — los robots deben actuar en beneficio del hombre;
- Principio de no perjuicio o maleficencia — la doctrina de «primero, no hacer daño», en virtud del cual los robots no deberían perjudicar a las personas;
- Autonomía — la capacidad de tomar una decisión con conocimiento de causa e independiente sobre los términos de interacción con los robots;
- Justicia — la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular.
Derechos fundamentales
Las actividades de investigación en materia
de robótica deben respetar los derechos fundamentales; y por su parte, las
actividades de concepción, ejecución, difusión y explotación han de estar al
servicio del bienestar de las personas y de la sociedad. La dignidad humana —
tanto física como psicológica — siempre tiene que respetarse.
Precaución
Las actividades de investigación en el
ámbito de la robótica deben llevarse a cabo de conformidad con el principio de
precaución, anticipándose a los posibles impactos de sus resultados sobre la
seguridad y adoptando las precauciones debidas, en función del nivel de
protección, al tiempo que se fomenta el progreso en beneficio de la sociedad y
del medio ambiente.
Participación
Los ingenieros en robótica gar*antizan la
transparencia y el respeto al derecho legítimo de acceso a la información de
todas las partes interesadas. La integración permite la participación en los
procesos de toma de decisiones de todas las partes interesadas o afectadas por
las actividades de investigación en el ámbito de la robótica.
Rendición de cuentas
Los ingenieros en robótica deben rendir
cuentas de las consecuencias sociales y medioambientales y el impacto sobre la
salud humana que la robótica puede conllevar para las generaciones presentes y
futuras.
Seguridad
Los diseñadores de robots han de tener en
cuenta y respetar la integridad física, la seguridad, la salud y los derechos
de las personas. Un ingeniero en robótica debe preservar el bienestar sin dejar
de respetar los derechos humanos, y divulgar con prontitud los factores
susceptibles de poner en peligro a la población o al medio ambiente.
Reversibilidad
La reversibilidad, que es una condición
necesaria de la posibilidad de control, es un concepto fundamental en la
programación de robots para que se comporten de manera segura y fiable. Un modelo
de reversibilidad indica al robot qué acciones son reversibles y, en su caso,
el modo de invertirlas. La posibilidad de deshacer la última acción o secuencia
de acciones, permite al usuario anular las acciones no deseadas y volver a la
fase «buena» de su trabajo.
Privacidad
El derecho a la intimidad debe siempre
respetarse. Un ingeniero en robótica debe garantizar que la información privada
se conservará en total seguridad y solo se utilizará de forma adecuada. Por
otra parte, el ingeniero en robótica ha de garantizar que los individuos no son
personalmente identificables, salvo en circunstancias excepcionales, y
únicamente en caso de consentimiento claro, consciente e inequívoco. El
consentimiento consciente de la persona tiene que solicitarse y recabarse con
anterioridad a cualquier interacción hombre-máquina. A tal efecto, los
diseñadores en robótica tienen la responsabilidad de desarrollar y aplicar
procedimientos para garantizar el consentimiento válido, la confidencialidad,
el anonimato, el trato justo y el respecto de la legalidad. Los diseñadores
llevarán a cabo todas las solicitudes de destrucción de los datos relacionados
y de eliminación de las bases de datos.
Maximizar beneficios y reducir al mínimo los daños
Los investigadores deben intentar maximizar
los beneficios de su actividad en todas las fases, desde su concepción hasta su
difusión. Es conveniente evitar cualquier daño a los participantes o a los
seres humanos que participen en los experimentos, ensayos o estudios en el
ámbito de la investigación. En caso de aparición de riesgos inevitables que
formen parte de un elemento integrante de la investigación, sería necesario
llevar a cabo una evaluación sólida de los riesgos, desarrollar protocolos de
gestión y adecuarse a los mismos. Normalmente, los riesgos a un daño no
deberían ser superior a los existentes en la vida cotidiana, es decir, las
personas no han de estar expuestas a riesgos mayores o adicionales a aquellos a
los que están expuestos en su vida cotidiana. La explotación de un sistema de
robótica debería basarse siempre en una profunda evaluación de los riesgos, y
reposar en los principios de proporcionalidad y de precaución.
CÓDIGO DEONTOLÓGICO PARA
LOS COMITÉS DE ÉTICA DE LA INVESTIGACIÓN
PRINCIPIOS
Independencia
El proceso de revisión ética ha de ser
independiente de la propia investigación. Este principio pone de relieve la
necesidad de evitar conflictos de intereses entre los investigadores y aquellos
encargados de revisar el protocolo ético, y entre los revisores y las
estructuras de gobernanza organizativa.
Competencia
Sería conveniente que el proceso de
revisión ética fuera efectuado por revisores con experiencia adecuada, teniendo
en cuenta la necesidad de un examen cuidadoso de la diversidad en la
composición y en la formación específica en materia de ética de los comités de
ética de la investigación.
Transparencia y obligación de rendir cuentas
El proceso de revisión debería ser
responsable y en condiciones de ser objeto de control. Los comités de ética de
la investigación regionales deben ser conscientes de sus responsabilidades y
estar adecuadamente ubicados dentro de estructuras organizativas que les doten
de transparencia operativa y de procedimientos destinados a conservar y revisar
las normas.
La función de un comité de ética de la investigación
Normalmente, los comités de ética de la
investigación son responsables de revisar toda investigación en la que
intervienen participantes humanos realizada por persona empleadas en o por la
institución en cuestión; de garantizar que la revisión ética es independiente,
competente y oportuna; de proteger la dignidad, los derechos y el bienestar de
los sujetos participantes de la investigación; de velar por la seguridad de los
investigadores; de tener en cuenta los intereses legítimos de las demás partes
interesadas; de hacer juicios razonados del mérito científico de las
propuestas; de formular recomendaciones con conocimiento de causa al
investigador si la propuesta es considerada insuficiente en determinados
aspectos.
Constitución de un comité de ética de la investigación
Un comité de ética de la investigación
debería: ser multidisciplinar, incluir a hombres y mujeres, estar constituido
por miembros con una amplia experiencia y conocimientos en el ámbito de la
investigación en robótica. El mecanismo de designación debería velar por que
los miembros del comité proporcionen un equilibrio adecuado entre conocimientos
científicos, formación filosófica, ética o jurídica, así como diferentes puntos
de vista. Además, debería contar con al menos un miembro con conocimientos
especializados en materia de ética, así como con usuarios de servicios
especializados de salud, educación o servicios sociales cuando dichos ámbitos
figuren dentro de las actividades de investigación, y personas con
conocimientos metodológicos específicos relacionados con la investigación que
evalúen; y deberán estar constituidos de modo que se eviten los conflictos de
intereses.
Control
Sería conveniente que todos los organismos
de investigación establecieran procedimientos adecuados para supervisar la
ejecución de la investigación que haya recibido el visto bueno en materia de
ética hasta la finalización del mismo, y garantizar una revisión continua en el
supuesto de que el diseño de la investigación prevea posibles cambios a lo
largo del tiempo que debieran tratarse. Los controles deberían ser
proporcionados a la naturaleza y a la intensidad del riesgo vinculado con la
investigación. Cuando un comité de ética de la investigación considere que un
informe de seguimiento plantea importantes dudas sobre la conducta ética del
estudio, deberá solicitar un detalle pormenorizado y exhaustivo de la
investigación con vistas a efectuar un examen ético. Cuando considere que un
estudio se está llevando a cabo de un modo contrario a la ética, el comité
deberá plantearse la retirada de su aprobación y exigir que la investigación se
suspenda o interrumpa.
A.5 Licencia para los diseñadores
- Los diseñadores deberán tener en cuenta los valores europeos de dignidad, libertad y justicia, antes, durante y después del proceso de concepción, desarrollo y de aplicación de esas tecnologías, incluida la necesidad de no perjudicar, herir, engañar o explorar a los usuarios (vulnerables).
- Los diseñadores deberán introducir principios de diseño de sistemas fiables en todos los aspectos del funcionamiento de un robot, tanto para la concepción del material y de programas informáticos, como para el tratamiento de datos dentro o fuera de la plataforma a efectos de seguridad.
- Los diseñadores deberán introducir dispositivos concebidos para asegurar que las informaciones privadas se conservan con total seguridad y solo se utilizan de manera adecuada.
- Los diseñadores deberán integrar mecanismos de salida evidentes (teclas de interrupción de urgencia) que deberán ser coherentes con los objetivos de diseño razonables.
- Los diseñadores deberán garantizar que un robot funciona de modo conforme a los principios éticos y jurídicos a nivel local, nacional e internacional.
- Los diseñadores deberán asegurarse de que las etapas de toma de decisión del robot puedan ser objeto de reconstrucción y trazabilidad.
- Los diseñadores deberán asegurarse de que es conveniente una transparencia máxima en la programación de los sistemas robóticos, así como la previsibilidad del comportamiento de los robots.
- Los diseñadores deberán analizar la previsibilidad de un sistema humano-robot teniendo en cuenta la incertidumbre en la interpretación y en la acción, así como los posibles fallos de los robots o del hombre.
- Los diseñadores deberán desarrollar instrumentos de rastreo en la fase de concepción del robot. Estos instrumentos permitirán tener en cuenta y explicar los comportamientos de los robots, aunque sea de forma limitada, en los distintos niveles previstos para los expertos, los operadores y los usuarios.
- Los diseñadores deberán elaborar protocolos de concepción y evaluación, y colaborar con los usuarios y las partes interesadas potenciales para evaluar las ventajas y los riesgos de la robótica, incluido a nivel cognitivo, psicológico y medioambiental.
- Los diseñadores deberán asegurarse de que los robots son identificables como tales al relacionarse con seres humanos.
- Los diseñadores deberán salvaguardar la seguridad y la salud de las personas que interactúan y entran en contacto con los robots, teniendo en cuenta que estos, como productos, deberán elaborarse utilizando procesos que garantizan su seguridad y protección. Un ingeniero en robótica ha de preservar el bienestar humano, al tiempo que respeta los derechos humanos, y no podrá accionar un robot sin garantizar la seguridad, la eficacia y la reversibilidad del funcionamiento del sistema.
- Los diseñadores deberán obtener el dictamen favorable de un comité de ética de la investigación antes de probar un robot en un entorno real o implicando a seres humanos en los procedimientos de concepción y desarrollo.
A.6 Licencia para los
usuarios
- Los usuarios estarán autorizados a hacer uso de un robot sin miedo de perjuicio físico o psicológico.
- Los usuarios deben tener derecho a esperar que un robot efectúe las tareas para las que haya sido expresamente concebido.
- Los usuarios deben ser conscientes de que los robots pueden tener límites de percepción, límites cognitivos y límites de accionamiento.
- Los usuarios deberán respetar la fragilidad humana, tanto física como psicológica, así como las necesidades emocionales de los seres humanos.
- Los usuarios deben tener en cuenta el derecho a la vida privada de las personas, incluida la desactivación de video monitores durante procedimientos íntimos.
- Los usuarios no están autorizados a recoger, utilizar o divulgar información personal sin el consentimiento explícito de la persona concernida.
- Los usuarios no están autorizados a utilizar un robot de modo contrario a los principios y normas éticas o jurídicas.
- Los usuarios no están autorizados a modificar los robots para utilizarlos como armas.
EXPOSICIÓN DE MOTIVOS
E.1 Antecedentes
En virtud del anexo VI del
Reglamento, la Comisión de Asuntos Jurídicos es competente, entre otras cosas,
en el ámbito del Derecho civil y mercantil, el Derecho de sociedades, el
Derecho de propiedad intelectual, así como en la interpretación y aplicación
del Derecho internacional, siempre y cuando se vea afectada la Unión Europea, y
en cuestiones éticas relacionadas con las nuevas tecnologías. La evolución de
la robótica y la inteligencia artificial plantea cuestiones jurídicas y éticas
que están claramente relacionadas con todos estos ámbitos y que requieren una
intervención rápida a escala de la Unión. Si bien corresponderá a la Comisión
Europea presentar, en su caso, una o varias propuestas legislativas relacionadas
con la robótica y la inteligencia artificial, el Parlamento Europeo ha decidido
allanar el camino a estas iniciativas haciendo uso de sus derechos en virtud
del artículo 225 del Tratado de Funcionamiento de la Unión Europea y del
artículo 46 de su Reglamento.
En consecuencia, el 20 de
enero de 2015 la Comisión JURI decidió crear un Grupo de trabajo sobre las
cuestiones jurídicas relacionadas con la evolución de la robótica y la
inteligencia artificial en la Unión Europea. El objetivo principal del Grupo de
trabajo consiste en elaborar normas de Derecho civil relacionadas con este
tema.
Además de los miembros de la
Comisión de Asuntos Jurídicos, el Grupo de trabajo también cuenta con miembros
representantes de la Comisión de Industria, Investigación y Energía (ITRE), de
la Comisión de Mercado Interior y Protección del Consumidor (IMCO) y de la
Comisión de Empleo y Asuntos Sociales (EMPL).
El Grupo de trabajo ha
consultado a expertos de ámbitos muy diversos y ha obtenido importantes
contribuciones que figuran en la presente Resolución.
E.2 Consideraciones
generales
La robótica y la
inteligencia artificial se han convertido en una de las principales tendencias
tecnológicas de nuestro siglo. El rápido aumento de su uso y de su evolución
plantea nuevos y difíciles retos a nuestra sociedad. El camino desde el sector
industrial hasta el contexto de la sociedad civil obliga a adoptar un enfoque
diferente con respecto a estas tecnologías, puesto que los robots y la
inteligencia artificial podrían aumentar su interacción con los seres humanos
en ámbitos muy diversos.
La Comisión JURI considera
que los riesgos que entrañan estas nuevas interacciones deberían abordarse con
urgencia, velando por que se respeten un conjunto de valores fundamentales en
todas las fases de contacto entre los robots, la inteligencia artificial y los seres
humanos. En el marco de este proceso, debe hacerse especial hincapié en la
seguridad, el respeto a la intimidad, la integridad, la dignidad y la autonomía
de los seres humanos.
Otros aspectos importantes
que también aborda la presente Resolución son: la normalización, los derechos
de propiedad intelectual, la propiedad de los datos, el empleo y la
responsabilidad. Es fundamental que el Reglamento proporcione condiciones
predecibles y suficientemente claras para incentivar la innovación europea en el
campo de la robótica y la inteligencia artificial.
E.3 Fundamento jurídico y
subsidiariedad
Las acciones de la Comisión
destinadas a adaptar la legislación vigente a la realidad de la robótica y la
inteligencia artificial deben basarse en el artículo 114 del TFUE. De acuerdo
con el artículo 5, apartado 3, del TUE, "en virtud del principio de
subsidiariedad la Unión intervendrá sólo en caso de que, y en la medida en que,
los objetivos de la acción pretendida no puedan ser alcanzados de manera
suficiente por los Estados miembros, ni a nivel central ni a nivel regional y
local, sino que puedan alcanzarse mejor, debido a la dimensión o a los efectos
de la acción pretendida, a escala de la Unión". Actualmente la robótica se está
desarrollando en toda la Unión. En respuesta a esta innovación, los Estados
miembros están elaborando distintas legislaciones nacionales. Estas
discrepancias son susceptibles de crear obstáculos al desarrollo eficaz de la
robótica. Debido a que esta tecnología tiene implicaciones transfronterizas, la
mejor opción legislativa es una a escala europea.
E.4 Principios generales y
éticos
La Resolución establece
principios generales y principios éticos en relación con el desarrollo de la
robótica y la inteligencia artificial para uso civil. En primer lugar, para
abordar de forma apropiada este desarrollo, es fundamental establecer una
definición común de los robots autónomos inteligentes. Por otro lado, conviene
reforzar la investigación en el ámbito de la robótica y las tecnologías de la
información y la comunicación, así como sobre las consecuencias de su difusión.
En segundo lugar, con el fin
de abordar los principios éticos, la presente Resolución incluye en su anexo
una Carta sobre robótica. Esta Carta consiste en un código de conducta ética
para los ingenieros en robótica, un código deontológico para los comités de
ética de la investigación y licencias para los diseñadores y los usuarios. El
marco propuesto se ajusta plenamente a la Carta de los Derechos Fundamentales
de la Unión Europea.
Asimismo, se sugiere la
creación de una agencia europea para la robótica y la inteligencia artificial.
Esta agencia debería facilitar la experiencia técnica, ética y normativa
necesaria para apoyar la labor de los agentes públicos pertinentes.
Los derechos de propiedad
intelectual, la protección y la propiedad de los datos
La Resolución pide a la
Comisión Europea que adopte un enfoque equilibrado en materia de derechos de
propiedad intelectual aplicados a las normas sobre equipos y programas
informáticos, y que proponga códigos que protejan la innovación y, al mismo
tiempo, la estimulen. Asimismo, solicita que se elaboren criterios relativos a
la «creación intelectual propia» aplicables a las obras protegidas por derechos
de autor creadas por ordenadores o robots.
El actual e insuficiente
marco jurídico relativo a la protección y la propiedad de los datos es motivo
de gran preocupación debido al flujo (previsiblemente masivo) de datos
procedentes de la utilización de la robótica y la inteligencia artificial.
E.5 La normalización, la
seguridad y la protección
El aumento de la utilización
de robots e inteligencia artificial requiere una normalización europea que
evite las discrepancias entre los Estados miembros y la fragmentación del
mercado interior de la Unión Europea.
Por otra parte, deben
abordarse las preocupaciones de los consumidores sobre la seguridad y la
protección relacionadas con la utilización de robots e inteligencia artificial.
Esta Resolución subraya, en particular, que la realización de ensayos de robots
en situaciones reales es esencial para la identificación y la evaluación de los
riesgos que puedan entrañar.
E.6 Normas para la
utilización específica de robots e inteligencia artificial
La Resolución incluye
disposiciones aplicables a determinados tipos de robots. Conviene adoptar
normas individuales para los vehículos autónomos, los robots asistenciales, los
robots médicos, los robots para la rehabilitación e intervenciones en el cuerpo
humano, así como los drones o sistemas de aeronave pilotada a distancia (RPAS).
E.7 Normas sobre responsabilidad
Los riesgos que puedan
surgir están intrínsecamente relacionados con la utilización de máquinas
autónomas en nuestra sociedad. El comportamiento de un robot podría tener
implicaciones de Derecho civil, tanto en términos de responsabilidad
contractual como extracontractual. Por lo tanto, es necesario aclarar la
responsabilidad de las acciones de los robots y, en última instancia, la
capacidad jurídica o el estatus de los robots y de la inteligencia artificial,
con el fin de garantizar la transparencia y la seguridad jurídica para los
productores y consumidores en la Unión Europea.
Se solicita a la Comisión
que lleve a cabo una evaluación de impacto de sus futuros instrumentos
legislativos para explorar las implicaciones de todas las posibles soluciones
jurídicas, tales como, entre otras, la creación de un régimen de seguro
obligatorio y un fondo de compensación.
E.8 La robótica y la
inteligencia artificial en el ámbito social
El aumento de la
comunicación y la interacción con los robots puede repercutir considerablemente
en las relaciones físicas y morales en nuestra sociedad. Esto sucede
especialmente en el caso de los robots asistenciales, hacia los que las
personas particularmente vulnerables podrían desarrollar sentimientos
emocionales y sentir apego, lo que suscita preocupación por la dignidad humana
y otros valores morales.
Los robots y la inteligencia
artificial ya tienen repercusión en la educación y el empleo. En este contexto,
es necesario supervisar atentamente la evolución del empleo a fin de evitar
consecuencias negativas para el mercado laboral.
E.9 Aspectos
internacionales
Habida cuenta de la
evolución de la robótica y la inteligencia artificial en todo el mundo, debería
considerarse la posibilidad de adoptar iniciativas para modificar, si fuera
necesario, algunos acuerdos internacionales vigentes en la materia o elaborar nuevos
instrumentos con el objetivo de introducir referencias específicas a la
robótica y la inteligencia artificial. La cooperación internacional en este
ámbito es muy recomendable.
18. Referencias
- [1] “1) Un robot no debe
hacer daño a un ser humano ni, por inacción, dejar que este sufra un daño. 2)
Un robot debe obedecer las órdenes que recibe de un ser humano, excepto cuando
tales órdenes entran en conflicto con la primera ley. 3) Un robot debe proteger
su propia existencia siempre que dicha protección no entre en conflicto ni con
la primera ni con la segunda ley [véase Círculo vicioso (Runaround), de
Isaac Asimov, 1942] y 0) un robot no debe
hacer daño a la humanidad ni, por omisión, dejar que esta sufra un daño”.
-
[2]
Véase la Declaración Schuman, de 1950: “Europa
no se hará de una vez ni en una obra de conjunto. Se hará gracias a
realizaciones concretas, que creen en primer lugar una solidaridad de hecho”.
-
[3]
Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la
aproximación de las disposiciones legales, reglamentarias y administrativas de
los Estados miembros en materia de responsabilidad por los daños causados por
productos defectuosos (DO L 210 de 7.8.1985, p. 29).
-
[4]
Reglamento (CE) n.º 864/2007 del Parlamento Europeo y del Consejo, de 11 de
julio de 2007, relativo a la ley aplicable a las obligaciones
extracontractuales (Roma II) (DO L 199 de 31.7.2007, p. 40).
-
[5]
Textos Aprobados, P8_TA(2015)0390.
-
[6]
Reglamento (CE) n.º 428/2009 del Consejo por el que se establece un régimen
comunitario de control de las exportaciones, la transferencia, el corretaje y
el tránsito de productos de doble uso (DO L 341 de 29.5.2009, p. 1).
19. Derechos de autor
La Comisión de asuntos
jurídicos del Parlamento Europeo, con Mady
Delvaux como ponente, elabora este proyecto
de informe con recomendaciones destinadas a la Comisión respecto a normas de
Derecho civil sobre robótica (2015/2103(INL)), en fecha 31/05/2016, una vez ha
sido visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,
los artículos 46 y 52 de su Reglamento y el informe de la Comisión de Asuntos
Jurídicos y las opiniones de la Comisión de Empleo y Asuntos Sociales, de la
Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria, de la
Comisión de Industria, Investigación y Energía, y de la Comisión de Mercado
Interior y Protección del Consumidor (A8-0000/2016).
Mady Delvaux est née le
11 octobre 1950 à Luxembourg-Ville. Est députée européenne luxembourgeoise
depuis mai 2014.
Membre du Groupe des Socialistes & Démocrates au
Parlement européen, elle est élue Vice-présidente
de la commission des affaires juridiques et suppléante de la commission des
affaires économiques et monétaires. Elle fait également partie du comité
consultatif sur le code de conduite des députés européens.
Entre 1989 et 2014, Mady occupe plusieurs postes
ministériels.
Entre 2004 et 2014, elle est Ministre de l’Éducation
nationale et de la Formation professionnelle.
En tant que Ministre de la Sécurité sociale, des
Transports et des Communications de 1994 à 1999, elle s’occupe entre autres de
la mise en place de la nouvelle assurance dépendance, de la réorganisation des
chemins de fer d’après les directives européennes et de la libéralisation des
services téléphoniques.
Nommée en 1989 secrétaire d’État à la Santé, à la
Sécurité sociale, à la Jeunesse et à l’Éducation physique et aux Sports, elle y
engage notamment la réforme de l’assurance maladie.
De 1999 à 2004, Mady est membre de la Chambre des
députés. En octobre 1987, elle est élue pour la première fois conseillère
communale de la Ville de Luxembourg, mandat que les électeurs lui confient à
nouveau en 1999.
Après ses études à la Sorbonne, Mady Delvaux-Stehres
est professeur au Lycée Michel Rodange à Luxembourg-Ville jusqu’en 1989.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.