INTELIGENCIA ARTIFICIAL Y DERECHO

                  

INTELIGENCIA ARTIFICIAL. SÍ. o lo que podríamos llamar una revolución digital. La unión entre el ser humano y la máquina podría presentar varios  problemas en la aplicación del derecho en un futuro muy próximo. 

La aplicación de los avances tecnológicos tiene una repercusión directa en la relación entre humanos y entre los humanos y las máquinas. Nos encontramos ante tecnologías como:

– creaciones de textos a partir de datos obtenidos

-reconocimiento de voz

-agentes virtuales

-machine learning (circuitos neuronales artificiales que imitan el funcionamiento del cerebro humano aprovechando el manejo de datos a gran escala), analíticas de textos para procesamiento de un lenguaje natural ( como ejemplo de empresa que se ocupa de entrenar las máquinas podemos destacar SIGMA TECHNOLOGIES).

-toma de decisiones automatizadas

– biometría

Nos encontramos ante la siguiente revolución digital donde el legislador tendrá una difícil tarea de ajustar las normativas a la realidad virtual existente. Las máquinas no disponen de elementos volitivos necesarios para la ejecución de sus funciones. Se basan en una serie de datos que procesan así que lo más probable es que los responsables de sus actos sean los dueños de dichos inventos, de modo que los proveedores de dichas tecnologías tendrían que aconsejarse legalmente en cuanto a posibles escenarios de responsabilidad por el funcionamiento de dichas inteligencias. 

En palabras de la Resolución de Parlamento Europeo de 16 de febrero de 2017:

Desde el monstruo de Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por el Golem de Praga o el robot de Karel Čapek —que fue quien acuñó el término—, los seres humanos han fantaseado siempre con la posibilidad de construir máquinas inteligentes, sobre todo androides con características humanas;

Considera el Parlamento que, ahora que la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial —que probablemente afecte a todos los estratos de la sociedad—, resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas, sin obstaculizar con ello la innovación y que es necesario crear una definición generalmente aceptada de robot y de inteligencia artificial que sea flexible y no lastre la innovación;

Dada la complejidad de la materia se esbozan los siguientes principios generales y de responsabilidad conservando siempre el principio de neutralidad tecnológica :

Principios generales

T. Considerando que debe entenderse que las leyes de Asimov(3) van dirigidas a los diseñadores, fabricantes y operadores de robots, incluidos los que disponen de autonomía y capacidad de autoaprendizaje integradas, dado que dichas leyes no pueden traducirse en código máquina;

U. Considerando que es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y universales que caracterizan la contribución de Europa a la sociedad; que esas normas no deben afectar al proceso de investigación, innovación y desarrollo en el ámbito de la robótica;

V. Considerando que la Unión podría desempeñar un papel esencial a la hora de establecer principios éticos básicos que deban respetarse en el desarrollo, la programación y la utilización de robots y de la inteligencia artificial, y a la hora de incorporar dichos principios a la normativa y los códigos de conducta de la Unión, con el fin de encauzar la revolución tecnológica para que esté al servicio de la humanidad y, de este modo, los beneficios de la robótica y la inteligencia artificial más avanzadas se distribuyan de la manera más amplia, evitando, dentro de lo que cabe, posibles escollos;

W. Considerando que se adjunta a la presente resolución una Carta sobre robótica elaborada con la asistencia de la Unidad de Prospectiva Científica (STOA) de la DG European Parliament Research Service, en la que se propone un código de conducta ética para los ingenieros en robótica, un código deontológico para los comités de ética de la investigación, una licencia para los diseñadores y una licencia para los usuarios;

X. Considerando que en las futuras iniciativas en materia de robótica e inteligencia artificial, la Unión debe adoptar una actitud gradual, pragmática y prudente, como la propugnada por Jean Monnet(4) , a fin de asegurarse que no se ponen trabas a la innovación;

Y. Considerando que, dado el nivel de desarrollo alcanzado por la robótica y la inteligencia artificial, procede empezar por las cuestiones relativas a la responsabilidad civil;

Responsabilidad

Z. Considerando que, gracias a los impresionantes avances tecnológicos de la última década, los robots ya no solo pueden realizar actividades que antes eran típica y exclusivamente humanas, sino que el desarrollo de determinados rasgos cognitivos y autónomos —como la capacidad de aprender de la experiencia y tomar decisiones cuasi independientes— ha hecho que estos robots se asimilen cada vez más a agentes que interactúan con su entorno y pueden modificarlo de forma significativa; que, en este contexto, es crucial la cuestión de la responsabilidad jurídica por los daños que pueda ocasionar la actuación de los robots;

AA. Considerando que la autonomía de un robot puede definirse como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos; que esa autonomía es puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno;

AB. Considerando que, cuanto más autónomos sean los robots, más difícil será considerarlos simples instrumentos en manos de otros agentes (como el fabricante, el operador, el propietario, el usuario, etc.); que esta circunstancia, a su vez, suscita la cuestión de si la normativa general sobre responsabilidad es suficiente o si se requieren normas y principios específicos que aporten claridad sobre la responsabilidad jurídica de los distintos agentes y su responsabilidad por los actos y omisiones de los robots cuya causa no pueda atribuirse a un agente humano concreto, y de si los actos u omisiones de los robots que han causado daños podrían haberse evitado;

AC. Considerando que, en última instancia, la autonomía de los robots suscita la cuestión de su naturaleza y de si pertenecen a una de las categorías jurídicas existentes o si debe crearse una nueva categoría con sus propias características jurídicas;

AD. Considerando que, en el actual marco jurídico, los robots no pueden ser considerados responsables de los actos u omisiones que causan daños a terceros; que las normas vigentes en materia de responsabilidad contemplan los casos en los que es posible atribuir la acción u omisión del robot a un agente humano concreto —como el fabricante, el operador, el propietario o el usuario—, y en los que dicho agente podía haber previsto y evitado el comportamiento del robot que ocasionó los daños; que, además, los fabricantes, los operadores, los propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un robot;

AE. Considerando que, según el marco jurídico vigente, la responsabilidad por daños causados por productos defectuosos —en la que el fabricante de un producto es responsable de un mal funcionamiento— y las normas que rigen la responsabilidad por una actuación que ocasiona daños —en la que el usuario de un producto es responsable de un comportamiento que deriva en un perjuicio— se aplican a los daños ocasionados por los robots o la inteligencia artificial;

AF. Considerando que, en el supuesto de que un robot pueda tomar decisiones autónomas, las normas tradicionales no bastarán para generar responsabilidad jurídica por los daños ocasionados por el robot, ya que no permitirán determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado;

AG. Considerando que también son manifiestas las deficiencias del marco jurídico vigente en el ámbito de la responsabilidad contractual, ya que la existencia de máquinas concebidas para elegir a sus contrapartes, negociar cláusulas contractuales, celebrar contratos y decidir sobre su aplicación hace inaplicables las normas tradicionales; considerando que esto pone de relieve la necesidad de adoptar nuevas normas eficientes y actualizadas, acordes con los avances tecnológicos y las innovaciones recientemente aparecidas y utilizadas en el mercado;

AH. Considerando que en materia de responsabilidad extracontractual podría no ser suficiente el marco ofrecido por la Directiva 85/374/CEE que solo cubre los daños ocasionados por los defectos de fabricación de un robot a condición de que el perjudicado pueda demostrar el daño real, el defecto del producto y la relación de causa a efecto entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin culpa);

AI. Considerando que, pese al ámbito de aplicación de la Directiva 85/374/CEE, el marco jurídico vigente no bastaría para cubrir los daños causados por la nueva generación de robots, en la medida en que se les puede dotar de capacidades de adaptación y aprendizaje que entrañan cierto grado de imprevisibilidad en su comportamiento, ya que un robot podría aprender de forma autónoma de sus experiencias concretas e interactuar con su entorno de un modo imprevisible y propio únicamente a ese robot;

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *