ChatGPT En El Plan De Un Ataque Terrorista.
El uso de la inteligencia artificial (IA) en actos de violencia ha tomado un giro preocupante con la revelación de que Matthew Livelsberger, el exsoldado estadounidense responsable del atentado frente al Trump International Hotel de Las Vegas, utilizó ChatGPT para planificar su ataque.
La policía del estado de Nevada informó que, tras analizar los dispositivos electrónicos de Livelsberger, encontraron evidencia de que había consultado a la IA sobre detalles relevantes para su plan criminal, incluyendo información sobre explosivos y la velocidad de expansión de una onda de choque.
Este hallazgo ha generado alarma en el ámbito de seguridad nacional y ha abierto un debate sobre las potenciales peligrosidades de la IA si se utiliza con fines maliciosos.
Livelsberger, miembro de los Boinas Verdes, una unidad de élite del ejército estadounidense especializada en operaciones contra terroristas, falleció durante la explosión.
La policía reveló que utilizó un Tesla Cybertruck para perpetrar el ataque, cargado con fuegos artificiales, tanques de gasolina y combustible.
Siete personas que se encontraban cerca del hotel resultaron heridas.
La utilización de ChatGPT para obtener información sobre cómo construir dispositivos explosivos es una muestra preocupante de la capacidad de la IA para ser instrumentalizada en actos de violencia, declaró un experto en seguridad cibernética quien prefirió mantener su anonimato.
Es crucial que las empresas desarrolladores de IA implementen medidas de seguridad robustas para prevenir el acceso malicioso a esta tecnología.
La tragedia en Las Vegas ha puesto en evidencia la necesidad de un análisis profundo sobre la ética y las implicaciones sociales del desarrollo de la IA. Se exige una mayor regulación y supervisión para garantizar que esta tecnología se utilice de forma responsable y que no caiga en manos equivocadas.
La comunidad internacional debe trabajar de forma conjunta para establecer normas éticas y mecanismos de control efectivos que prevengan el uso malicioso de la IA, especialmente en contextos delictivos.