La posibilidad de automatizar armas letales ha generado debates éticos significativos. Críticos de la inteligencia artificial advierten que el uso de tecnologías como ChatGPT para tomar decisiones en contextos bélicos podría dificultar la atribución de responsabilidades y fomentar la complacencia humana al delegar tareas críticas a sistemas autónomos.
Redacción Astillero Informa
OpenAI ha tomado medidas contundentes al eliminar la cuenta de STS 3D, un usuario que diseñó un dispositivo capaz de controlar un rifle automático mediante comandos de voz procesados por ChatGPT. El caso ganó notoriedad tras la publicación de un video en Reddit, donde se mostraba al desarrollador emitiendo instrucciones como “girar a la izquierda” o “girar a la derecha”, que el dispositivo interpretaba para apuntar y disparar contra superficies cercanas.
La herramienta, basada en un entrenamiento sencillo del modelo de lenguaje, permitió que ChatGPT tradujera comandos en texto a un formato legible por máquinas, lo que facilitó el funcionamiento del sistema automatizado. Ante esta situación, OpenAI confirmó en una declaración a Futurism que había identificado la violación de sus políticas y procedió a desactivar la cuenta asociada. “Identificamos de manera proactiva esta violación de nuestras políticas y notificamos al desarrollador que cesara esta actividad antes de recibir su consulta”, señaló la compañía.
Las políticas de OpenAI prohíben explícitamente el uso de sus productos en el desarrollo o empleo de armas, así como en la automatización de sistemas que puedan comprometer la seguridad personal. No obstante, la empresa ha sido objeto de controversias por su colaboración en 2024 con Anduril, un fabricante de tecnología de defensa, en el desarrollo de sistemas impulsados por inteligencia artificial para contrarrestar ataques con drones.
La posibilidad de automatizar armas letales ha generado debates éticos significativos. Críticos de la inteligencia artificial advierten que el uso de tecnologías como ChatGPT para tomar decisiones en contextos bélicos podría dificultar la atribución de responsabilidades y fomentar la complacencia humana al delegar tareas críticas a sistemas autónomos. Por otro lado, defensores de la IA en aplicaciones militares argumentan que estas herramientas podrían aumentar la seguridad de los soldados al mantenerlos alejados de las líneas de combate y permitirles neutralizar amenazas de forma remota.
El caso de STS 3D pone de relieve un desafío mayor: aunque OpenAI toma medidas para prevenir usos indebidos, otros modelos de código abierto disponibles en el mercado podrían ser empleados con fines similares, escapando a las restricciones de las grandes empresas tecnológicas. Este panorama subraya la necesidad de regulaciones claras y globales para abordar el uso de la inteligencia artificial en contextos militares y de seguridad.
“Este texto fue generado con la ayuda de ChatGPT, un modelo de lenguaje alojado en la plataforma de OpenAI”
Alberto “N” es trasladado al penal de La Pila y The Crash lo retira de su cartelera (nota de Carlos Ventura en OEM-Informex)
“El Patrón” estuvo recluido en las celdas de la Policía de Investigación, pero al cumplirse las 48 horas de su detención, ya fue trasladado y la FGESLP solicitará la vinculación a proceso Carlos Ventura | OEM-Informex El gladiador potosino Alberto “N” dejó las celdas de la Policía de Investigación para ser trasladado al penal de…
Así fueron los últimos momentos de Leyla Monserrat, antes de ser asesinada por sus amigas (nota de Abigail Saucedo en Quinto Poder)
El caso de Leyla Monserrat revela cómo fue engañada y asesinada por sus amigas; el crimen grabado desató indignación y debate sobre justicia. Abigail Saucedo Castro | Quinto Poder El feminicidio de Leyla Monserrat, una adolescente de 15 años en Sonora, sigue generando conmoción en todo México, especialmente tras revelarse detalles sobre sus últimos momentos con vida. La…








