Reescritura y Traducción del Contenido:
Los líderes del sector tecnológico de inteligencia artificial (IA) tienen mucho que ganar si logran infundir temor en sus inversores. Al presentar la tecnología como una fuerza ultrapotente que podría fácilmente someter a la humanidad, la industria espera venderse como una solución: un remedio a una situación que ayudó a crear.
Un claro ejemplo de esto es Dario Amodei, cofundador y CEO de Anthropic, quien ha publicado un extenso ensayo de 19,000 palabras en su blog. En él, sostiene que «la humanidad está a punto de recibir un poder casi inimaginable, y no está claro si nuestros sistemas sociales, políticos y tecnológicos tienen la madurez necesaria para manejarlo».
Frente a este peligro existencial, Amodei intentó establecer un marco para «derrotar» los riesgos presentados por la IA, aunque admitió que podría ser «fútil».
«Es momento de que la humanidad despierte, y este ensayo es un intento —posiblemente fútil, pero vale la pena intentarlo— de sacudir a la gente», escribió.
Amodei argumentó que «en 2026 nos encontramos considerablemente más cerca de un verdadero peligro que en 2023», citando los riesgos de pérdidas laborales masivas y una «concentración del poder económico» y la riqueza.
Sin embargo, los incentivos para invertir en salvaguardas significativas simplemente no están presentes. En su ensayo, Amodei lanzó una crítica velada al chatbot Grok de Elon Musk, envuelto en una controversia sobre la creación de imágenes sexuales no consentidas.
«Algunas empresas de IA han mostrado una inquietante negligencia hacia la sexualización de niños en los modelos actuales, lo que me hace dudar de que tengan la inclinación o la capacidad para abordar los riesgos de autonomía en futuros modelos», escribió.
El CEO también mencionó el riesgo de que las IA desarrollen armas biológicas peligrosas o armas militares «superiores». Una IA podría «salirse de control y dominar a la humanidad» o permitir que países «utilicen su ventaja en IA para obtener poder sobre otros países», lo que podría llevar a «la alarmante posibilidad de una dictadura totalitaria global».
Amodei lamentó que actualmente no estemos dispuestos a enfrentar estos riesgos de manera directa. En su carrera hacia lo más bajo, la industria de la IA se encuentra en una «trampa», argumentó Amodei.
«La IA es tan poderosa, tan deslumbrante, que es muy difícil para la civilización humana imponerle alguna restricción», escribió.
«Tomarse el tiempo para construir sistemas de IA de manera cuidadosa, para que no amenacen autónomamente a la humanidad, está en genuina tensión con la necesidad de que las naciones democráticas se mantengan adelante de las autoritarias y no sean sometidas por ellas», continuó. «Sin embargo, las mismas herramientas habilitadas por la IA que son necesarias para combatir las autocracias pueden, si se llevan demasiado lejos, ser utilizadas para crear tiranía en nuestros propios países».
«La terrorista impulsada por IA podría matar a millones a través del mal uso de la biología, pero una reacción excesiva a este riesgo podría llevarnos a un estado de vigilancia autocrático», argumentó.
Como parte de una solución, Amodei renovó sus llamados a negar a otros países los recursos para construir IA poderosa. Comparó la venta de chips de IA de Nvidia a China con «vender armas nucleares a Corea del Norte y luego presumir que los contenedores de misiles son fabricados por Boeing y que, por lo tanto, Estados Unidos está ‘ganando'».
Quedan muchas preguntas sobre los verdaderos riesgos de la IA avanzada, un tema que continúa siendo fuertemente debatido entre realistas, escépticos y defensores de la tecnología. Críticos han señalado que los riesgos existenciales citados a menudo por líderes como Amodei pueden estar exagerados, especialmente a medida que las mejoras en la tecnología parecen estar desacelerándose.
También debemos considerar el contexto más amplio de la advertencia extensa de Amodei. La empresa del CEO busca cerrar una ronda de financiamiento masivo, valorada en $350 mil millones. En otras palabras, Amodei tiene un gran interés financiero en posicionarse como la solución a los riesgos que menciona en su ensayo.
Más sobre Anthropic: Anthropic dejó que un agente de IA dirigiera una pequeña tienda y el resultado fue involuntariamente hilarante.
Con información de https://futurism.com/artificial-intelligence/anthropic-ceo-warns-ai-ravage-human-civilization