Imagen post inteligencia artificial

Regulación de la inteligencia artificial: el gran desafío en materia jurídica

En 2017 Elon Musk pedía a los gobernantes de Estados Unidos reglamentar la inteligencia artificial; ya que según palabras del magnate, la IA “era una amenaza existencial contra la humanidad”. Y pedía a los políticos que se involucraran antes de que fuera demasiado tarde.

A raíz de estas declaraciones, hubo otros personajes públicos como Marc Zuckerberg que defendían otra postura totalmente distinta. Este y otros como él sostenían que una regulación de la inteligencia artificial lo único que conseguiría es frenar el desarrollo de esta tecnología.

Este, sin duda, es un gran debate que a día de hoy sigue estando sobre la mesa muy presente. No solo en EEUU o China, sino también en la Unión Europea, donde a raíz de la Covid-19, el desarrollo de la IA ha dado pasos agigantados, sobre todo en el mercado laboral. Y es que como cualquier otra tecnología, la IA plantea beneficios y riesgos.

¿Oportunidad o riesgo?

Si echamos la vista atrás, Estados Unidos y China ya llevan un tiempo por delante de nosotros en cuanto a la robotización y automatización en el mercado laboral, la protección de datos, en el ámbito fiscal y derechos de autor.

Pero, ¿por qué ver a la IA como un enemigo? Muchos como Elon Musk piensan que la IA va a destruir puestos de trabajos, que las máquinas van a sustituir a las personas en determinados puestos de trabajo porque estas son más rápidas, productivas e inteligentes que los seres humanos. Pero acaso, ¿no están apareciendo nuevos puestos de trabajo en empresas tecnológicas?

Muchas de ellas incluso no pueden cubrir sus vacantes porque falta talento digital.

Sin embargo, al otro lado se encuentran los que ven la IA como una oportunidad para conseguir mejoras en sus trabajos, ayudándose de esta tecnología. La inteligencia artificial reúne una serie de técnicas que persiguen el objetivo de imitar a los humanos, su pensamiento y toma de decisiones. Alexa, Google Translator o la implementación de un chatbot de un ecommerce en Facebook son ejemplos de este tipo de tecnología que facilita la vida de los humanos.

El reto de la Unión Europea

Entonces, ¿cómo evitar que la IA haga daño? La IA no tiene personalidad jurídica reconocida, derechos, ni obligaciones. Por tanto, es imposible reclamarle nada a un robot para que responda ante esos daños que causó.

La Comisión Europea propone valorar los impactos de una IA defectuosa. Por ejemplo, ante un accidente de un coche autónomo, propone considerar la responsabilidad por capas, diferenciando si se trata de un error en el diseño y programación, del producto final o de su manipulación. Por lo que la duda se centra en determinar quién sería el responsable y quién respondería ante este accidente:

  • Responden todos los intervinientes en la cadena de valor del robot. Estos son creador, programador, propietario, usuario).
  • Responden únicamente el titular o el usuario.
  • La responsabilidad recae en la IA, mediante una personalidad robótica.

Ante este vacío legal, muchos piden al gobierno una ley que regule este asunto, ya que un enfoque ético no es suficiente, porque no hay garantías jurídicas.

No queremos vehículos automatizados que no respeten las normas de señalización o armas con IA que violen tratados; pero tampoco se trata de parar el desarrollo de la IA, sino de intervenir cuando se produzca un conflicto importante.

En 2018, la comisión Europea presentó un borrador con unas directrices éticas para el desarrollo y uso de la IA, donde se debatían los retos de esta tecnología y el impacto en los derechos fundamentales de la UE.

Este informe fue la base del libro blanco que presentó la UE en febrero de este año, donde se propone un marco para su desarrollo de forma fiable y se barajan técnicas regulatorias como el reconocimiento facial, entre otras.

Se espera que una agencia europea se encargue de regular esta tecnología en cada uno de los países miembros. Por lo que el gran desafío de la UE será crear un espacio donde haya un equilibro entre los derechos de la ciudadanía y la consolidación del avance tecnológico. Y esta regulación de la inteligencia artificial deberá ser un ejemplo para el resto de potencias mundiales.

No es un camino fácil conseguir una regulación internacional y nacional de la inteligencia artificial, sobre todo por los grandes intereses económicos generados por las grandes organizaciones, así como de los Gobiernos. Pero el libro blanco de la IA, de la Comisión Europea, será un punto de partida importante.