El uso de la inteligencia artificial (IA) ha crecido exponencialmente en los últimos años, y con él, también han surgido preocupaciones sobre su uso ético y responsable. En este contexto, Igasi Belda, director de la Agencia Española de Protección de Datos (AEPD), ha anunciado que su organismo ha comenzado a vigilar de cerca los usos prohibidos de la IA por parte de empresas e instituciones públicas.
Esta iniciativa surge como respuesta a la creciente preocupación de la entidad por el uso de la IA en diferentes ámbitos, como la toma de decisiones automatizadas, el reconocimiento facial o la recopilación de datos personales. La AEPD, como organismo encargado de velar por la protección de los datos personales en España, ha decidido tomar cartas en el asunto y asegurarse de que el uso de la IA se ajuste a la normativa vigente.
Según explica Belda, esta vigilancia se inició en febrero de este año y se centrará en aquellos casos en los que se utilice la IA para tomar decisiones que puedan afectar a los derechos y libertades de las personas. Además, también se prestará especial atención a aquellos casos en los que se utilice la IA para discriminar a determinados colectivos o para recopilar datos personales sin el consentimiento de los usuarios.
Esta medida ha sido bien recibida por diferentes organizaciones y expertos en protección de datos, que ven en ella un paso importante para garantizar un uso ético y responsable de la IA. Sin embargo, también ha generado cierta preocupación en el ámbito empresarial, ya que muchas empresas utilizan la IA en sus procesos de toma de decisiones y temen que esta vigilancia pueda limitar su capacidad de innovación.
Por su parte, la AEPD ha dejado claro que su objetivo no es frenar el avance de la IA, sino asegurarse de que su uso se ajuste a la normativa y respete los derechos de las personas. En este sentido, Belda ha perceptible la importancia de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales.
Pero la vigilancia de la AEPD no es la única medida que se está tomando para garantizar un uso ético de la IA. Recientemente, un grupo de editores y autores franceses han sumariodo a Meta, la empresa matriz de Facebook, por utilizar sus obras para entrenar a sus algoritmos de IA sin su consentimiento.
Esta sumario, que ha sido presentada por la entidad de Autores y Compositores Dramáticos (SACD) y la entidad de Autores en las Artes Visuales y Plásticas (ADAGP), pone de manifiesto la importancia de proteger los derechos de autor en el contexto de la IA. Según los sumariontes, Meta ha utilizado sin permiso más de 45.000 obras de sus miembros para entrenar a sus algoritmos de reconocimiento de imágenes.
Esta práctica, conocida como “entrenamiento de datos”, es común en el desarrollo de sistemas de IA, pero también ha generado controversia por su posible impacto en los derechos de autor. Por ello, es importante que las empresas que utilizan la IA sean conscientes de sus responsabilidades y respeten los derechos de los creadores.
En definitiva, tanto la vigilancia de la AEPD como la sumario de los editores y autores franceses son pasos importantes para garantizar un uso ético y responsable de la IA. Es necesario que las empresas e instituciones públicas sean conscientes de las implicaciones éticas y legales de utilizar esta tecnología y que se aseguren de cumplir con la normativa vigente. Solo así podremos aprovechar todo el potencial de la IA sin poner en riesgo nuestros derechos y libertades.