Proponen un remedio legal que clarifique la responsabilidad por el uso de la Inteligencia Artificial

Mié, 17/07/2019

Esther Monterroso

Por UDIMA Media

Tan solo un software que articule lo que llamamos Inteligencia Artificial (IA) puede derivar en un daño cuya responsabilidad debería limitar y clarificar la ley. Eso sostiene la profesora del Grado en Derecho de la Universidad a Distancia de Madrid, UDIMA, Esther Monterroso, para quien la atribución de la responsabilidad por el uso de la IA constituye un “importante desafío”, ya que, como ella misma subraya, “un software puede conducir a una acción u omisión de un resultado dañoso”.

En este contexto, explica, “la búsqueda de un remedio legal para discernir la responsabilidad resulta de gran relevancia”. “Delimitarlo”, reconoce, “puede llegar a ser complicado, no solo por la búsqueda de la causalidad o por si puede ser calificado como producto defectuoso, sino por la propia imputación de culpa en función del régimen de responsabilidad en cada uno de los múltiples campos donde intervienen los robots”.

De ello habló en el ICAM, Ilustre Colegio de Abogados de Madrid, el pasado 11 de julio, donde impartió la conferencia ‘Criterios de imputación de la responsabilidad en la Inteligencia Artificial’, en el marco de la Jornada ‘Inteligencia Artificial y Responsabilidad Civil y Seguro’.