Inicio / Noticia
Informe KPMG /
Los dilemas éticos de la inteligencia artificial
10:30 | 19/12/2019
  • La IA permite el desarrollo de máquinas inteligentes y autónomas, con capacidad para ser entrenadas para "pensar" y tomar decisiones
  • Una de las prioridades para las empresas en sus programas de IA es la de crear marcos de control adecuados capaces de conocer los algoritmos y poder explicar las decisiones que toman sus modelos conforme aprenden de la experiencia
  • La promesa de que la inteligencia artificial cambiará nuestras vidas ya se ha cumplido. Ahora el reto estará en integrar los robots en nuestro día a día
Por Futuro a Fondo

La IA permite el desarrollo de máquinas inteligentes y autónomas, con capacidad de ser entrenadas para "pensar" y tomar decisiones. Su presencia cada vez más generalizada ha propiciado la creación de un nuevo contexto en las relaciones que las personas mantienen con ellas, con implicaciones hasta ahora inexistentes desde el punto de vista ético y jurídico.

“Debemos ir más allá de las normas éticas, puesto que éstas no cuentan con garantías jurídicas. La autorregulación no es suficiente. Si las normas son solo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician”, apunta Moisés Barrio, letrado del Consejo de Estado, profesor de Derecho Digital y consultor.

Barrio considera que, “los retos más urgentes son el de la responsabilidad y la revisión de los esquemas de tributación y de cotización a la Seguridad Social”. De ahí que defienda la necesidad de la creación de una disciplina jurídica para regular este ámbito de uso de la tecnología. “Esta nueva rama deberá aprovechar las técnicas y avances del Derecho de Internet, y estudiar los problemas de privacidad, responsabilidad civil y penal, consumo y seguridad, entre otros, que los robots están empezando a plantear. No faltan autores que defienden la creación de una Comisión Federal de Robótica o Agencia europea equivalente que regule esta materia”, apunta.

A día de hoy, algunas tecnológicas ya han tomado conciencia de la importancia de regular en este ámbito. El director general de Google, Sundar Pichai, publicó hace más de un año una declaración de intenciones por la que se iban a regir en la compañía para la investigación y desarrollo de soluciones basadas en inteligencia artificial. Microsoft, por su parte, también ha hecho los deberes en este sentido manifestando cuáles son los principios éticos que requieren la creación de sus soluciones. Ambas empresas, a su vez, son miembros activos del AI Now Institute, el instituto de investigación creado en 2017 por Kate Crawford, investigadora de Microsoft Research, y Meredith Whittaker, fundadora del grupo Open Research de Google, en el que se analizan y estudian las implicaciones sociales de la inteligencia artificial.

En cuanto al papel de los estados, en mayo de 2018 se presentó la Declaración de Toronto que, además de describir las responsabilidades de los actores privados en el desarrollo e implementación de la IA, también establece el deber de los gobiernos de prevenir e identificar los riesgos de estos sistemas.  El Reino Unido ya tiene un plan al respecto con la creación del Centre for Data Ethics and Innovations (CDEI). Su función es ofrecer recomendaciones y asesorar a los reguladores y la industria para fomentar la innovación responsable.

El Parlamento Europeo, por su parte, está trabajando en el documento Ethics Guidelines for Trustworthy Artificial Intelligence. En él se establecerán las directrices para el desarrollo de sistemas IA en el ámbito de la UE, que han de cumplir tres requisitos: ser legales, éticos y robustos.

Uno de los propósitos de estas iniciativas es construir una inteligencia artificial confiable, aunque Moisés Barrio cree que no son suficientes: “las directrices éticas son un paso muy relevante pero este enfoque tiene graves carencias. En muchas ocasiones demasiado vagos; además, no hay incentivos suficientes para aplicarlos y tampoco prevén ningún mecanismo de supervisión por las instituciones de la UE o de los Estados miembros”.

Empezar por el control y la explicabilidad

Una de las prioridades para las empresas en sus programas de inteligencia artificial es la de crear marcos de control adecuados capaces de conocer los algoritmos y poder explicar las decisiones que toman sus modelos conforme aprenden de la experiencia. Eva García San Luís, socia responsable de IA de KPMG España, recuerda que “para que la IA pueda aportar valor es muy relevante no perder el control de los modelos conforme se van haciendo más complejos y poder explicar cómo y por qué se están tomando determinadas decisiones". 

Con la expresión "human in the loop", Eva García San Luis alude a la importancia de que el proceso de la IA cuente con control humano en todas las fases del ciclo de vida de los modelos. “No puedes tener modelos en tu empresa que sean una caja negra igual que no tendrías un empleado al que nunca evalúas o das feedback”, resalta la socia responsable de IA.

“Si lo haces te expones a que tome decisiones que no son las esperadas o que son incorrectas desde un punto de vista estratégico e incluso ético. Solo la confianza y la explicabilidad facilitarán una adopción a gran escala de la inteligencia artificial capaz de transformar radicalmente las empresas y los sectores”, concluye Eva García San Luis.

Un dilema ético difícil

Actualmente, parece difícil encontrar una solución ética a las cuestiones que plantea la IA. Hace unos meses empezaron a publicarse las primeras noticias sobre pruebas con coches autónomos. Uno de los debates que surgieron fue el de la capacidad de estas máquinas para tomar una decisión ante determinadas situaciones de peligro, sobre todo aquellas en las que el vehículo no tenía más remedio que decidir entre la vida de una persona u otra.  En el Massachusetts Institute of Technology (MIT) han puesto en marcha el experimento Moral Machine para recopilar información sobre cuál sería la medida más acertada, según las personas participantes, en cuestiones como la planteada.

La forma de resolver este tipo de conflictos en el futuro no parece ni fácil ni estar del todo clara. “Como sociedad, tenemos que determinar qué nivel de responsabilidad en la conducción, seguridad o siniestralidad vamos a exigir a este nuevo tipo de automóviles autónomos: ¿el mismo que el de un conductor medio, el de un conductor sobresaliente, u otro nivel creado específicamente para este tipo de coches?”, plantea Moisés Barrio.

“¿Será posible el desarrollo de algoritmos justos y carentes de sesgos? “Técnicamente es posible, pero requiere contar con equipos interdisciplinares en los que estén implicados también juristas, sociólogos y filósofos, entre otros”, concluye Barrio.

La promesa de que la inteligencia artificial cambiará nuestras vidas ya se ha cumplido. Ahora el reto estará en integrar los robots en nuestro día a día.

Comentarios

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.