Comienza la regulación de la inteligencia artificial
La inteligencia artificial (IA) ha desencadenado un debate ferviente y nuevas inquietudes. Algunos acogen su uso masivo como una mejora, simplificación y automatización de diversas actividades humanas, mientras que otros se preocupan por sus impactos en la pérdida de empleos, su aplicación poco ética y la falta de control.
Las opiniones se dividen también entre aquellos que abogan por su regulación y quienes creen que esto no es necesario por ahora. Es por eso por lo que resulta llamativo uno de los primeros pasos concretos hacia la regulación de la IA. En días recientes, el Parlamento Europeo aprobó abrumadoramente el proyecto de Ley de Inteligencia Artificial de la Unión Europea. Roberta Metsola, presidenta del Parlamento Europeo, la describió como “una legislación que, sin duda, establecerá el estándar a nivel mundial en los próximos años” (bit.ly/3P3ppJ2).
No obstante, quedan varios pasos antes de que entre en vigencia. A partir de ahora, los miembros del Parlamento Europeo deberán discutir los detalles con el Consejo de la Unión Europea y la Comisión Europea, el órgano ejecutivo de la UE. Luego, el proyecto de ley se convertirá en ordenanza propiamente dicha. Es posible que transcurran un par de años antes de que esta legislación sea aplicable.
La ley aprobada adopta un “enfoque basado en el riesgo”. Introduce restricciones en función del grado de peligro que los legisladores anticipan en una determinada aplicación de la IA. Las empresas también estarán obligadas a presentar sus propias evaluaciones de riesgo en relación con su uso de la inteligencia artificial.
Algunas aplicaciones de la IA serán completamente prohibidas si los legisladores consideran que el riesgo es inaceptable. Por su parte, las tecnologías catalogadas como de “alto riesgo” estarán sujetas a nuevas limitaciones en su uso y a requisitos de transparencia.
Entre las implicaciones principales de esta ley, se incluyen:
-Prohibición de la IA de reconocimiento de emociones. Queda prohibido el uso de la IA que intente identificar las emociones de las personas bajo vigilancia, ya sea en espacios como las escuelas o los lugares de trabajo.
-Prohibición de la biometría en tiempo real y la vigilancia predictiva en espacios públicos. Grupos de vigilancia no están a favor de vetar las tecnologías biométricas en tiempo real, las cuales consideran necesarias para una fuerza policial moderna. Algunos países planean incrementar el uso del reconocimiento facial.
-Prohibición de la evaluación social. Se pretende vedar la calificación social por parte de agencias gubernamentales, así como la práctica de emplear datos sobre el comportamiento social de las personas para hacer generalizaciones y perfiles. La utilización de datos de conducta social para evaluar a las personas es común en la aprobación de hipotecas, la determinación de tarifas de seguros y en procesos de contratación y publicidad.
-Nuevas restricciones para la IA generativa. Se veta el uso de cualquier material protegido por derechos de autor en la formación de modelos lingüísticos amplios, como el GPT de OpenAI. También se exige que los contenidos generados por IA se etiqueten como tales.
-Nuevas limitaciones para algoritmos de redes sociales. Esto implica que los sistemas de recomendación en redes sociales estarán sujetos a una mayor supervisión de su funcionamiento. Las compañías tecnológicas podrían asumir una mayor responsabilidad por el impacto de los contenidos generados por los usuarios.
Con este primer paso del Parlamento Europeo, se inicia un nivel de debate más avanzado en torno a la regulación de la IA. Deberemos avanzar desde los mitos y las descalificaciones hacia argumentos sólidos, evidencia concreta y propuestas sustanciales. El gran objetivo consiste en aprovechar los beneficios de la IA mientras se reducen y controlan sus eventuales daños y repercusiones.