20 Minutos – ¿Por qué piden Google y Microsoft la regulación de la inteligencia artificial?

Compartir

Share on facebook
Share on linkedin
Share on twitter
Share on email

El consejero delegado de Microsoft, Satya Nadella, se ha mostrado partidario en el Foro Económico de Davos de que los usos y aplicaciones de la inteligencia artificial, que en el futuro afectarán a las vidas de millones de personas, se regulen de forma global. Coincide de esta forma con la postura que defienden otras empresas tecnológicas, como es el caso de Google, que también ha hecho hincapié en este tema durante una conversación con el fundador de Davos, Klaus Schwab. 

La inteligencia artificial es capaz de analizar grandes cantidades de datos e identificar tendencias y patrones para formular sugerencias con precisión, haciendo la experiencia del usuario más ágil. ¿Pero cuáles son los motivos por los que las empresas ven necesaria esta regulación? Existen varios, pero lo más mencionados y las posibles soluciones aportadas se resumen en tres. 

La IA tiene sesgos de género, raza, etc… 

Esto se debe al sesgo de los propios técnicos a la hora de programar la inteligencia artificial y puede afectar a algunos procesos importantes de selección para el acceso a la vivienda, al empleo o a determinadas becas, ya que se cruzan datos de códigos postales o tasas hipotecarias. Este es el caso de Estados Unidos, donde ya se utiliza la IA para estas tareas

La solución que dan algunos de los expertos es legislar para que haya una mayor diversidad entre las personas encargadas de diseñarlaIBM, una de las empresas líderes en el sector tecnológico, ha llevado varias propuestas concretas al Foro de Davos. Entre estas se encuentran la de nombrar altos funcionarios de ética de IA, llevar a cabo evaluaciones para determinar los posibles daños y mantener la documentación sobre los datos al realizar elecciones con implicaciones para las personas.  

El uso masivo de datos personales es un bien preciado 

En los últimos años se han visto las consecuencias de este uso principalmente de dos maneras. Por un lado, la compra y venta de datos personales de empresas supone una invasión de privacidad del usuario. Y por el otro, algunas empresas pueden utilizar estos datos para fabricar noticias falsas que se difunden sin un control alguno por parte de la IA. 

Algunas compañías como Facebook han empezado a contar con sistemas de verificación para contrarrestar este factor, así como eliminar de su sistema aquellas noticias que se hayan demostrado como bulos. El escándalo que supuso la filtración de datos por parte de Cambridge Analytica ha hecho que la compañía de Mark Zuckerberg quiera evitar que algo así vuelva a ocurrir. 

La responsabilidad legal de la IA debe precisarse 

Las utilidades de la inteligencia artificial para hacernos la vida más fácil son muchas, así como los errores que conlleva un fallo de la misma. Pero cuando han ocurrido casos de esto último, como por ejemplo un accidente de un coche autónomo, ¿quién es el responsable? La legislación actual culpa de manera automática a la empresa o persona física propietaria en caso de accidente, en el cual, esté involucrado un coche autónomo en modo automático. 

Las aseguradoras no ofrecen ningún tipo de póliza donde se contemple que la máquina puede conducir y tampoco se puede demostrar a ciencia cierta quien conducía en el momento del accidente. Una de las posibilidades que se estudian es la de añadir un sistema que registre estos datos.  

Este y otros posibles casos similares abren el debate de si la culpa debe recaer en el diseñador original, el fabricante, el propietario, el usuario o la propia IA. Las empresas tecnológicas piden una legislación que especifique este asunto. Además, especifican que la regulación sobre estos y otros problemas relacionados con el uso de la IA tiene que venir de parte de los gobiernos y no de las empresas privadas. La autorregulación ha demostrado ser inservible en la práctica si algunas empresas no cumplen los protocolos.

La Comisión Europea presentará una nueva regulación en febrero

10 tendencias tecnológicas para 2020

En el Reino Unido existe un Comité de la Cámara de los Lores sobre IA, y la Comisión Europea puso en marcha en junio de 2018 un grupo de expertos para debatir sobre los desafíos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Unión Europea. Este grupo presentó el 18 de diciembre de 2018 un primer borrador de unas directrices éticas para el desarrollo y uso de la Inteligencia Artificial. 

Este borrador y otros informes serán la base de la regulación sobre este tema que se presentará previsiblemente en febrero de este año. Entre las posibles medidas está la de crear una Agencia Pública sobre Inteligencia Artificial o la prohibición del reconocimiento facial en lugares públicos.

20 MINUTOS – ¿Por qué piden Google y Microsoft la regulación de la inteligencia artificial?

Suscríbete a nuestra newsletter

Todas las noticias de Asufin.tech en tu mail

También te puede interesar