Indonesia bloquea IA de Elon Musk por generar imágenes pornográficas falsas
Indonesia anunció el sábado la suspensión temporal de Grok, el asistente de inteligencia artificial de la plataforma X de Elon Musk, a raíz del escándalo de falsas imágenes pornográficas de personas desnudas.
Estas imágenes, creadas al pedirle a Grok que desnudara a personas reales a partir de sus fotos o videos, provocaron protestas en todo el mundo.
"Para proteger a las mujeres, los niños y al público frente a los riesgos de contenidos pornográficos falsos generados mediante tecnología de inteligencia artificial, el gobierno bloqueó temporalmente el acceso a la aplicación Grok", indicó la ministra de Comunicación y Digitalización, Meutya Hafid, en un comunicado.
"El gobierno considera las prácticas de 'deepfake' no consensuadas como una grave violación de los derechos humanos, de la dignidad y de la seguridad de los ciudadanos en el espacio digital", subrayó el ministerio en su comunicado, que convocó a representantes de X para obtener aclaraciones sobre este asunto.
Cuestionada en X por numerosos usuarios indignados, Grok respondió el viernes que la generación y edición de imágenes estarán a partir de ahora reservadas a los suscriptores de pago.
Esta desactivación limitada provocó la indignación del Reino Unido, uno de los críticos más virulentos de Elon Musk.
La medida "simplemente transforma una funcionalidad que permite la creación de imágenes ilegales en un servicio prémium" y constituye "un insulto a las víctimas de misoginia y de violencias sexuales", denunció un portavoz del primer ministro británico Keir Starmer.
En Bruselas, la Comisión Europea "tomó nota de las últimas modificaciones", considerándolas insuficientes.
萬-M.Wàn--THT-士蔑報