La inteligencia artificial (IA) ha generado grandes avances en diversos campos; sin embargo, también ha despertado varias controversias importantes que siguen siendo objeto de debate en la sociedad, la política y la ética.

En muchos casos, la inteligencia artificial puede ser de gran ayuda en diversos ámbitos de la vida, ya que ofrece soluciones inmediatas a las dudas que surgen en la cotidianidad. Por ejemplo, facilita llegar a un destino con la ayuda de aplicaciones de mapas como Google Maps o Waze, que utilizan algoritmos para calcular las rutas más rápidas y evitar el tráfico. También permite acceder a información sobre temas desconocidos mediante asistentes virtuales como Alexa o Siri, que responden preguntas de manera inmediata.

Sin embargo, en esta ocasión, la inteligencia artificial estuvo involucrada en un incidente que ha generado gran controversia. Un soldado activo de 37 años, identificado como Matthew Alan Livelsberger, utilizó ChatGPT, una (IA) desarrollada por OpenAI, para obtener información sobre cómo detonar explosivos, manejar armas de fuego y adquirir estos objetos. Según las autoridades, Livelsberger planeó su suicidio y utilizó la famosa (IA) para llevar a cabo su propósito.

El soldado fue encontrado muerto dentro de un Tesla Cybertruck estacionado frente al hotel Trump International de Las Vegas. De acuerdo con un informe de la agencia AP, el FBI, que inspeccionaba este jueves la residencia del individuo en la ciudad de Colorado Springs, señaló que Matthew había conducido más de diez horas desde Colorado hasta Las Vegas para llevar a cabo lo que las autoridades describen como un acto premeditado.

Según los análisis realizados por el forense de Las Vegas, Matthew habría recibido un disparo antes de la detonación del explosivo. Las evidencias indican que el disparo fue autoinfligido por el soldado. Esta mañana, en una rueda de prensa, se confirmó que el arma utilizada fue una pistola semiautomática Desert Eagle.

Además, las investigaciones revelaron que Matthew realizó numerosas preguntas sobre las armas de fuego que empleó en su suicidio mediante el programa ChatGPT. La policía de Las Vegas publicó capturas de estas consultas. Por su parte, OpenAI, la compañía detrás de la IA, argumentó que toda la información proporcionada al sujeto estaba disponible públicamente y no representaba contenido exclusivo generado por su sistema.

Las autoridades continúan investigando las razones detrás del acto, ya que Matthew Alan, no había mostrado ningún indicio de mala conducta a lo largo de sus 19 años de servicio militar. Sus familiares lo describen como un ciudadano ejemplar, profundamente patriota y admirador de Donald Trump.

Livelsberger, formaba parte del Décimo Grupo de Fuerzas Especiales y estaba en Estados Unidos con un permiso especial debido a la temporada navideña. Según confirmaron dos fuentes del Pentágono al The Wall Street Journal, su base se encontraba en Alemania.

Este trágico caso resalta la necesidad de reflexionar sobre el uso responsable de la inteligencia artificial. Si bien estas tecnologías ofrecen grandes beneficios en múltiples áreas, su acceso y aplicación deben estar acompañados de medidas éticas y de control que prevengan posibles mal usos. La (IA) no es inherentemente peligrosa, pero es fundamental que tanto las empresas desarrolladoras como los usuarios comprendan las implicaciones de su empleo, asegurándose de que sirva para mejorar la vida humana y no para facilitar actos perjudiciales.

Cumple los criterios de The Trust Project

Saber más

Síguenos en Google Noticias para mantenerte siempre informado

Sigue el canal de Diario De Morelos en WhatsApp