“Espero que pasen cosas malas”: la inquietante advertencia del creador de la IA

Foto del autor

Por Manuel Sánchez

¿Esperar que sucedan cosas malas? Ese no es precisamente el lema de optimismo que desearíamos escuchar del cerebro detrás de ChatGPT. Pero cuando Sam Altman, CEO de OpenAI, lo dice con serenidad (y desde su propia trinchera tecnológica), quizá convenga escuchar con atención antes de correr a esconderse debajo de la mesa.

Un pronóstico inquietante entre bits y bytes

En una reciente charla con The a16z Podcast, Sam Altman compartió lo que podríamos llamar una advertencia cargada de sinceridad sobre el ritmo alocado al que avanza la inteligencia artificial (IA). Y no, no venía con capa de profeta apocalíptico, sino desde su función como líder de una empresa que ha transformado radicalmente cómo interactuamos con la tecnología a través de ChatGPT.

Altman no se anduvo con rodeos: la velocidad con la que evoluciona la IA generativa traerá consigo consecuencias negativas. ¿En qué sectores? Menciona sin rodeos la desinformación, la manipulación digital y esa joya moderna llamada pérdida de confianza social. «Espero que pasen cosas realmente malas debido a la tecnología», afirmó, con la honestidad de quien está más cerca del horno.

Deepfakes: cuando la realidad se vuelve sospechosa

Uno de los temas que realmente revolotea en la mente de Altman es el de los archifamosos deepfakes. Hablamos de videos o audios falsos, generados con IA, tan realistas que pondrían nervioso hasta al más escéptico. Lo que antes exigía maquinaria y conocimientos técnicos al alcance de pocos, hoy está, lamentablemente, en la bandeja de entrada de cualquier usuario regular.

¿Las puertas que esto abre? Un festín para quienes planean campañas de desinformación política, fraudes digitales o buscan infligir daños reputacionales que pueden ser irreversibles. Si antes bastaba con desconfiar del amigo que exageraba en WhatsApp, hoy el reto es mucho mayor.

¿El problema es el código o nosotros mismos?

Sin embargo, Altman pone un matiz que no deberíamos pasar por alto: el mayor desafío no viene tanto de posibles defectos en el código, sino en cómo la sociedad aprende a usar estas potentes herramientas. Es aquí donde la cosa se pone verdaderamente interesante.

  • Ya no es solo una cuestión técnica.
  • La interacción humana con la IA genera situaciones imprevisibles.
  • La confianza social puede erosionarse si abusamos del poder de la IA.

«La humanidad está interactuando, de pronto, con una mente compartida», reflexionó Altman. Parece frase de película futurista, pero describe exactamente la realidad actual: millones de personas comunicándose a diario con el mismo modelo de lenguaje (o sistema generativo, como se prefiere decir en ciertos círculos).

No todo está perdido: alerta temprana y co-evolución

Pese al tono sombrío de sus advertencias, Altman invita a no guardar los teléfonos bajo el colchón todavía. Su diagnóstico no es tanto una profecía oscura como una alerta temprana, salida nada menos que del corazón de las empresas que están apostando fuerte por la IA.

¿Medidas extremas de regulación? Para Altman, no es la solución definitiva. Propone, en cambio, que la clave está en ser especialmente cautelosos con las pruebas de seguridad y que la sociedad promueva lo que él llama una «co-evolución» entre humanos y tecnología. Es decir, que las personas interactúen con la IA y, a partir de esa experiencia, establezcan por sí mismas los límites cuando vayan surgiendo los riesgos.

  • Cautela en la experimentación con nuevas herramientas.
  • Participación activa de la sociedad en la definición de fronteras éticas.

Así, lejos de caer en el catastrofismo, la advertencia de Altman llama a la responsabilidad compartida. La próxima vez que interactúes con un sistema de IA, recuerda: la mente compartida somos todos. Y el modo en que manejemos esta convivencia digital marcará la diferencia entre el caos y el progreso. Ahora, ¿te animas a poner tus propios límites?

Artículos similares

Califica este artículo

Deja un comentario

Share to...