La semana pasada, Sam Altman, el CEO de OpenAI y rostro principal detrás de ChatGPT, hizo declaraciones que causaron mucho rechazo. Quienes seguimos de cerca el vertiginoso mundo de la Inteligencia Artificial estamos acostumbrados a promesas grandilocuentes y visiones utópicas, pero lo que presenciamos en el AI Impact Summit realizado en India roza la sociopatía y consagra una hipocresía que debería alarmarnos a todos.

En el evento, que reunió a referentes de la industria de la IA, Altman planteó una comparación que, a primera vista, algunos tomaron como una broma, pero que esconde una filosofía aterradora. El CEO de OpenAI se refirió a las “comparaciones injustas” cuando se habla del gasto energético de la IA. Y procedió a comparar la eficiencia energética de ChatGPT con la del ser humano. Según su lógica, para que un humano responda a una pregunta, requiere miles de años de evolución, décadas de crianza, alimentación y educación; mientras que la IA, una vez entrenada, gasta una fracción de esa energía en dar la misma respuesta.

Yo lo encuentro realmente terrible. Una visión así perdió la humanidad como un objetivo en sí mismo. Como si la vida humana no tuviera un valor intrínseco; el profesional, el individuo, es visto simplemente como un gasto ineficiente, una “pila” cara frente a la alternativa de IA.

Sam Altman lleva a ChatGPT a la guerra

Si lo anterior es grave, lo que vino después es directamente peligroso. A fines de febrero vivimos unas 24 horas de locos. Todo comenzó cuando Darío Amodei, CEO de Anthropic (la empresa detrás de Claude), rechazó firmar un contrato con el Pentágono porque se negaba a que su tecnología fuera utilizada para vigilancia masiva y en el desarrollo de robots autónomos con capacidad letal.

¿Qué hizo Sam Altman? Publicó inmediatamente un mensaje apoyando a Amodei, asegurando que, a pesar de ser rivales, confiaba en el compromiso de Anthropic con la seguridad. Sin embargo, la decencia duró poco. Esa misma tarde, tras la negativa de Anthropic, el gobierno estadounidense los vetó de cualquier contrato federal. Y al caer la noche, en un giro de hipocresía descarada, OpenAI anunció que tomaría el lugar de Anthropic en el Pentágono.

Aunque Altman intentó maquillar la situación insinuando que ellos tampoco aceptarían los términos más oscuros del trato, el propio Departamento de Defensa se encargó de desmentirlo públicamente: OpenAI aceptó todas y cada una de las condiciones que el Pentágono exigía y que Anthropic rechazó.

Las consecuencias de esto no son ciencia ficción; pueden ser reales y letales. Ya hemos visto documentado el uso de IA en acciones militares —como el sistema Lavender en Gaza— que, operando con márgenes de error del 10% y escasa supervisión humana, han provocado la muerte de miles de inocentes. Ese es el negocio en el que acaba de entrar OpenAI.

Si crees que exagero con mis palabras o piensas que estoy sacando las cosas de contexto, te invito a que lo escuches por ti mismo. En el siguiente video expongo los clips de Sam Altman en el evento realizado en India, y muestro las declaraciones oficiales del Departamento de Guerra de EEUU.

Recommended Posts
0
evolucion-en-sintesis-visualresiliencia-en-sistemas-ia