BRUSELAS 10 Jul. (EUROPA PRESS) –
La Comisión Europea ha presentado una guía de buenas prácticas diseñada por expertos de la Oficina Europea de IA para acompañar a las grandes empresas en el cumplimiento de las primeras normas europeas para regular los riesgos de sistemas de Inteligencia Artificial de uso general, como ChatGPT o Gemini, y que entrarán en vigor el próximo 2 de agosto.
“Es un paso importante para que los modelos de IA más avanzados estén disponibles en Europa no solo de forma innovadora, sino también segura y transparente”, ha dicho la vicepresidenta comunitaria para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen, quien ha invitado a los proveedores a unirse al pacto facultativo.
Estas orientaciones serán voluntarias para las compañías que suscriban el Código de Buenas Prácticas, documento que ha sido presentado por Bruselas este jueves pero que necesita aún la validación formal tanto por parte del Ejecutivo comunitario como de los 27.
Fuentes comunitarias evitan dar una estimación de cuántas empresas se sumarán al compromiso no vinculante, del que ya se han desmarcado grandes tecnológicas; pero defienden que ofrecerá seguridad jurídica a los signatarios y advierten de que no suscribirse a él no les eximirá de la obligación de cumplir el nuevo marco regulatorio para la Inteligencia Artificial (IA) de uso general.
Además, el Ejecutivo comunitario sostiene que los firmantes del código se beneficiarán de una menor carga administrativa y una mayor seguridad jurídica en comparación con los proveedores que demuestren el cumplimiento de otras maneras.
En todo caso, esta guía se complementará con otras directrices que Bruselas publicará antes de la entrada en vigor de las obligaciones en materia de IA de uso general, con el objetivo de aclarar quién está dentro y fuera del ámbito de aplicación de estas nuevas normas.
Con esta iniciativa, la Unión Europea busca ayudar a los proveedores de modelos de IA a resolver las posibles ambigüedades que compliquen la aplicación de la nueva regulación comunitaria y evitar así que la falta de seguridad jurídica obstaculice la innovación de los europeos en este campo.
TRANSPARENCIA, DERECHOS DE AUTOR Y SEGURIDAD
El código centrará sus orientaciones en la transparencia, los derechos de autor y la seguridad y aquellos proveedores que opten por no adherirse a la iniciativa tendrán que demostrar por otros medios que cumplen las normas.
Según explica Bruselas en un comunicado, dado que los modelos de IA de uso general sustentan muchos sistemas de IA en la UE, la Ley europea obligará a los proveedores a garantizar una transparencia suficiente, de modo que puedan integrar estos modelos en sus productos, por ejemplo mediante un formulario único de documentación fácil de usar.
El comunicado añade que algunos modelos de IA de uso general podrían conllevar riesgos sistémicos, como riesgos para los derechos fundamentales y la seguridad, incluida la reducción de las barreras para el desarrollo de armas químicas o biológicas, o riesgos relacionados con la pérdida de control sobre el modelo.
La ley europea de IA exige que los proveedores de modelos evalúen y mitiguen estos riesgos sistémicos, por lo que el capítulo de seguridad del código propone las prácticas más avanzadas pertinentes para la gestión del riesgo sistémico.