Las siete principales empresas tecnológicas que lideran el desarrollo de la inteligencia artificial (IA) se comprometieron el viernes a tomar medidas para garantizar su seguridad.
Convocados por la Casa Blanca, Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, creadora de ChatGPT, acordaron una serie de exigencias del gobierno estadounidense que servirían para proteger a los usuarios. Entre las promesas se encuentran una mayor inversión en equipos de ciberseguridad más robustos, la creación de una marca de agua que identifique el contenido generado por IA (ya sea texto, imágenes o video) y el estímulo de la investigación sobre los sesgos y la discriminación que pueden tener estos sistemas.
Estas siete empresas, algunos gigantes tecnológicos y algunas pequeñas empresas emergentes, también se comprometieron a compartir datos sobre sus sistemas con el gobierno y las universidades, así como a permitir que expertos independientes verifiquen sus productos antes de lanzarlos al público en general.
Este compromiso no es vinculante, por lo que puede terminar siendo un papel. Las empresas han suscrito voluntariamente acuerdos que pueden ser infringidos, ya que no se ha establecido ningún tipo de obligación de cumplir los compromisos ni consecuencias por no respetarlos. Aun así, fuentes gubernamentales dijeron a The Washington Post que creen que servirá para “elevar los estándares de seguridad y confianza en la IA”.
Regulación tímida en Estados Unidos
La Administración Presidencial encabezada por Joe Biden está trabajando en una orden ejecutiva que abordaría algunos de los riesgos que plantea la IA, aunque se conocen pocos detalles sobre el texto. El acuerdo firmado hoy con los principales desarrolladores de IA sirve así para reforzar su contacto con el poder. En mayo, la Casa Blanca amplió la asignación de fondos públicos para promover esta tecnología.
Mientras tanto, el Senado de los EE. UU. está trabajando en una propuesta regulatoria que aún se encuentra en sus primeras etapas. En este momento, los senadores están aprendiendo qué es la IA y los riesgos que puede presentar en diferentes áreas, como la seguridad nacional. El uso de la llamada IA generativa está limitado en otras leyes paralelas.
.