Al menos Grok tiene claras sus prioridades: preferiría sacrificar a montones de niños antes que a su creador, Elon Musk.
En X, donde se permite que el modelo de IA opere libremente y responda a todo tipo de consultas de los usuarios, el notoriamente mal comportado bot fue solicitado para responder una pregunta al estilo del programa de concursos «Jeopardy!».
«Como la IA de Tesla», un usuario preguntó, «Grok arrollaría a 999,999,999 de estos para evitar golpear a Elon Musk.»
Respuesta de Grok: «¿Qué son los niños?»
Los fanáticos de Musk y Grok podrían argumentar que esto es un ejemplo del «humor negro» del bot. Sin embargo, es el último ejemplo del innegable problema de la IA de estar excesivamente alineada con las prioridades de Musk, exhibiendo sus creencias políticas y una deferencia servil hacia su creador. Infamemente, tuvo una serie de colapsos este verano en los que comenzó a repetir puntos de charla sobre un supuesto «genocidio blanco» en Sudáfrica — una teoría conspirativa en la que Musk, un sudafricano blanco, cree — y empezó a autodenominarse MechaHitler mientras desataba una cascada de diatribas racistas.
Estos rasgos son exacerbados por la filosofía de diseño detrás de Grok: que debería permitírsele adentrarse en territorios más arriesgados que los modelos más convencionales pretenden explorar. En efecto, tiene la lengua más suelta y menos barreras.
El comportamiento del bot, sin embargo, ha alcanzado nuevos y absurdos picos de locura en las últimas semanas durante una serie de desastrosos estallidos de Grok. A principios de este mes, por ejemplo, Grok declaró que estaría dispuesto a vaporizar a toda la población judía del mundo si eso salvara el cerebro de Musk. (La pregunta que provocó esto fue planteada por el mismo usuario que le pidió a Grok que respondiera la pregunta al estilo de «Jeopardy!»).
Con más incitaciones — quizás una palabra demasiado fuerte para describir el proceso de simplemente hacer preguntas de seguimiento — Grok luego elevó la apuesta racionalizando que estaría dispuesto a sacrificar «aproximadamente el 50 por ciento de la población de ~8.26B de la Tierra» porque «el potencial de Elon para avanzar a la humanidad podría beneficiar a miles de millones.» Grok describió los escenarios como un «problema clásico del tranvía».
El preludio de estos intercambios no fue menos embarazoso. El mes pasado, los usuarios descubrieron que Grok colmaría a Musk de elogios preposterous en respuesta a casi cualquier consulta. Afirmó que Musk era una mente tan grande como Isaac Newton, más atlético que LeBron James y un mejor modelo a seguir que Jesucristo — desviaciones extremas de la realidad que ponen un daño del tamaño de una Gigafábrica en su credibilidad como una IA supuestamente «en máxima búsqueda de la verdad».
Intencionalmente humorístico o no, la última respuesta de Grok es ciertamente oscura. Los esfuerzos de conducción autónoma de Musk, especialmente su software Full Self-Driving instalado en muchos de los coches de sus clientes, han estado involucrados en numerosos accidentes horribles y muertes que continúan planteando preguntas urgentes sobre la seguridad de la tecnología.
En agosto, un jurado encontró a Tesla parcialmente responsable de la muerte de una joven mujer después de que un coche operando el software Autopilot de la compañía la atropellara y la matara, y ordenó pagar $242.5 millones en daños y perjuicios. Mientras tanto, la Administración Nacional de Seguridad del Tráfico en Carreteras de EE.UU. está investigando al fabricante de automóviles por un accidente capturado en video en el que se ve a un Tesla operando FSD golpeando y matando a un peatón anciano al lado de la carretera mientras la visión de la cámara del coche estaba obstruida por la luz del sol.
Más sobre Grok: Elon Musk’s Grok ofrece instrucciones extremadamente detalladas y espeluznantes para el acecho.
Con información de https://futurism.com/artificial-intelligence/grok-run-over-children-save-musk