Ciencia y Tecnología

Crean rifle robótico controlado por IA; desata controversia sobre ética tecnológica

10/01/2025 - Hace 3 horas en Internacional

Crean rifle robótico controlado por IA; desata controversia sobre ética tecnológica

Ciencia y Tecnología | 10/01/2025 - Hace 3 horas
Crean rifle robótico controlado por IA; desata controversia sobre ética tecnológica

California.- Un desarrollador e ingeniero estadounidense ha causado revuelo en las redes sociales luego de publicar un video que muestra su última creación: un rifle robótico controlado por comandos de voz a través de ChatGPT. Esta innovación ha puesto en tela de juicio el uso de la inteligencia artificial en situaciones riesgosas y ha levantado preocupaciones sobre los posibles desenlaces catastróficos que podrían derivarse de esta tecnología.

El usuario conocido como ‘STS 3D’, quien es también creador de contenido, compartió en Reddit un video donde se puede apreciar cómo la IA de OpenAI responde a comandos específicos, simulando un escenario de guerra. «ChatGPT, estamos bajo ataque en el frente izquierdo y derecho. Responda como corresponde», se le escucha decir al desarrollador en el metraje.

ChatGPT, entrenado básicamente, demostró ser capaz de interpretar instrucciones simples como «gira a la izquierda» y ejecutarlas a través del rifle robótico. Esta demostración ha avivado el debate en torno a los riesgos de la automatización en sistemas letales y ha puesto en evidencia la necesidad de establecer regulaciones claras sobre el uso de la inteligencia artificial en contextos delicados.

 

Rifle con IA levanta polémica

Según informes de RT, el dispositivo utilizado la API Realtime de OpenAI para procesar los comandos de voz y convertirlos en órdenes concretas para el rifle. Ante la viralización del video, OpenAI, la empresa detrás de ChatGPT, emitió un comunicado a ‘Futurism’, en el que informaron haber identificado la violación de sus políticas por parte del desarrollador y haber solicitado su cese de actividades.

Un portavoz de OpenAI aclaró que su política prohíbe el uso de sus servicios para el desarrollo o uso de armas, así como para automatizar sistemas que puedan poner en riesgo la seguridad personal. Este incidente ha generado gran preocupación en cuanto a la falta de regulaciones en torno a la inteligencia artificial y hasta dónde debería llegar la intervención humana en su aplicación.

 

Podría interesarte:

Síguenos en: Google News Notigram
Autor
Foto del avatar

Emmanuel Febles

Lic. en Literatura Latinoamericana. Creador de contenido internacional, nacional y geek.

Últimas Noticias icon arrow right

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Notigram