Meta (empresa matriz de Facebook, Instagram, Messenger y WhatsApp) dio a conocer el jueves una amplia gama de políticas y explicaciones sobre el uso de inteligencia artificial (IA) en sus redes sociales y algoritmos.
El gigante tecnológico anunció el jueves que lanzará 22 «tableros de sistema» para Facebook e Instagram y que estas herramientas brindan información sobre cómo los sistemas de IA clasifican el contenido que ve el usuario, hacen predicciones para determinar qué contenido podría ser más relevante para el consumidor y También ofrecen al usuario la posibilidad de personalizar su experiencia.
“En las próximas semanas, ampliaremos nuestro botón ‘¿Por qué veo esto?’, una función en Instagram y Facebook Reels (videos), (…) El usuario podrá hacer clic para ver más información sobre cómo puede ser su actividad anterior. han informado los modelos de aprendizaje automático que dan forma y entregan el contenido que ves”, explicó el presidente de Asuntos Globales de Meta, Nick Clegg, en un comunicado.
«Con el rápido progreso que se está produciendo con tecnologías poderosas como la IA generativa, es comprensible que las personas estén entusiasmadas con las posibilidades y preocupadas por los riesgos. Creemos que la mejor manera de abordar estas preocupaciones es a través de la transparencia», señaló el representante de Meta.
Clegg explicó que esta acción es “parte de un espíritu más amplio de apertura, transparencia y rendición de cuentas” del Meta.
Para aumentar su transparencia, Meta también anunció que comenzará a implementar un nuevo conjunto de herramientas para investigadores en las próximas semanas.
Entre los datos compartidos hay una biblioteca de contenido a la que los investigadores pueden solicitar acceso.
Meta dice que estas herramientas proporcionarán «el acceso más completo al contenido disponible públicamente en Facebook e Instagram que cualquier otra herramienta de investigación hasta la fecha», y ayudarán a la empresa a cumplir con sus obligaciones de transparencia e intercambio de datos.
En varias ocasiones, Meta ha sido criticada por no dar a los investigadores suficiente acceso a sus datos.
«Nuestra ambición es seguir siendo transparentes a medida que hagamos que más modelos de IA estén disponibles abiertamente en el futuro», agregó Clegg.
En febrero, Meta lanzó su modelo de lenguaje grande LLaMA bajo una licencia de código abierto que permite que cualquier persona vea y modifique el código.
.