En el mundo

La IA generativa, una amenaza para la seguridad infantil en línea: el NCMEC revela el crecimiento del contenido de abuso infantil generado por IA

31/01/2024 - Hace 3 meses en Internacional

La IA generativa, una amenaza para la seguridad infantil en línea: el NCMEC revela el crecimiento del contenido de abuso infantil generado por IA

En el mundo | 31/01/2024 - Hace 3 meses
La IA generativa, una amenaza para la seguridad infantil en línea: el NCMEC revela el crecimiento del contenido de abuso infantil generado por IAFoto: Ilustrativa

El Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados (NCMEC, por su sigla en inglés) ha alertado sobre un alarmante aumento en el contenido de abuso infantil generado por Inteligencia Artificial (IA). Durante el año 2023, el NCMEC recibió 4 mil 700 informes relacionados con este tipo de contenido, lo que refleja un problema incipiente que se espera que crezca a medida que avanza la tecnología de IA.

En los últimos meses, expertos e investigadores en seguridad infantil han expresado su preocupación por el riesgo potencial que representa la tecnología de IA generativa. Esta tecnología, capaz de crear texto e imágenes en respuesta a indicaciones, podría exacerbar la explotación en línea de menores.

Aunque el NCMEC no ha publicado el número total de informes de contenido de abuso infantil recibidos en el año 2023, en el año anterior recibió informes de alrededor de 88.3 millones de archivos. John Shehan, vicepresidente del NCMEC, afirmó: “Estamos recibiendo informes de las propias empresas de IA generativa, de plataformas en línea y de miembros del público”.

La preocupación por la seguridad infantil en línea ha llevado a que los directores ejecutivos de importantes empresas tecnológicas testifiquen en una audiencia en el Senado. Los líderes de Meta, X (antes Twitter), TikTok, Snap y Discord comparecieron para responder a preguntas sobre los esfuerzos realizados por sus plataformas para proteger a los niños de los depredadores en línea.

El informe de Stanford sobre IA generativa

Un informe presentado por investigadores del Observatorio de Internet de Stanford en junio pasado advirtió sobre el uso de la IA generativa por parte de abusadores para producir repetidamente daños a menores, creando nuevas imágenes que coinciden con la apariencia de un menor.

Fallon McNulty, director de CyberTipline del NCMEC, destacó que el contenido generado por IA se vuelve cada vez más fotorrealista, dificultando la determinación de si la víctima es una persona real. OpenAI, la empresa creadora de ChatGPT, una popular herramienta de IA generativa, ha establecido un proceso para enviar informes al NCMEC. McNulty también reveló que la organización se encuentra en conversaciones con otras empresas de IA generativa.

Ante la creciente preocupación, es crucial que las plataformas en línea y las empresas de tecnología continúen trabajando en colaboración con organizaciones como el NCMEC para mejorar la seguridad de los niños en el espacio digital.

Te puede interesar: Horror en vivo: hombre decapita a su padre y lo muestra en YouTube

Síguenos en: Google News Notigram

Últimas Noticias icon arrow right

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Notigram