Mo Gawdat, ex Chief Business Officer de Google X y autor de Scary Smart, comparte en sus redes sociales una realidad: el mundo que conocíamos ha cambiado. Y en este nuevo tablero, quien no sepa jugar con las piezas tecnológicas corre el riesgo de quedarse al margen.
Una cuestión de supervivencia
Para Gawdat, la primera habilidad esencial en la era de la inteligencia artificial es dominar las herramientas clave. No se trata sólo de familiarizarse con ChatGPT o Midjourney, sino de entender cuáles son las herramientas específicas más relevantes para el propio campo profesional. Gawdat sugiere una práctica muy directa: “Ve a una herramienta de IA y pregúntale: ¿cuáles son los diez programas que necesito aprender?”. La respuesta puede ser el comienzo de una hoja de ruta personalizada. La rapidez con la que están surgiendo nuevos instrumentos obliga a una constante actualización. No es un lujo para expertos, sino una habilidad casi tan básica como leer o escribir. Y no basta con saber que existen: hay que comprenderlas, aplicarlas y, sobre todo, saber evaluarlas.
La segunda competencia que destaca Gawdat es la capacidad de discernir lo verdadero de lo falso. El escenario ha cambiado radicalmente: “Antes, Google te mostraba millones de páginas y tú decidías cuál era la verdad”, explica. Pero ahora, los modelos de lenguaje como los de OpenAI o Anthropic no sólo sintetizan, sino que lo hacen con una seguridad pasmosa. El problema es que a veces se equivocan. Esto coloca al usuario en una situación crítica: debe aprender a filtrar la información con criterio. En un contexto donde la desinformación se propaga en cuestión de segundos, la capacidad de análisis, la curiosidad y el escepticismo constructivo se vuelven indispensables. Saber contrastar, contextualizar y comprobar es, hoy, una forma de resistencia.

¿Qué aplicaciones tiene la inteligencia artificial cuántica en el sector de la ciberseguridad?
Finalmente, la tercera habilidad esencial según Gawdat tiene que ver con algo más profundo: la ética. Y aquí el consenso se amplía. Gabriela Ramos, subdirectora general de Ciencias Sociales y Humanas de la UNESCO, fue tajante durante el 2º Foro Mundial sobre la Ética de la Inteligencia Artificial: “En ninguna otra especialidad necesitamos más una ‘brújula ética’ que en la IA”. Los dilemas éticos no son teóricos. La IA ya está generando sesgos, reforzando desigualdades históricas y amenazando derechos fundamentales. Desde algoritmos que discriminan en procesos de selección laboral hasta herramientas de vigilancia que comprometen libertades civiles, la urgencia de una ética aplicada no puede postergarse.
Para Ramos, el desarrollo tecnológico debe regirse por estándares universales que maximicen los beneficios sin multiplicar los daños. La UNESCO, con su experiencia en bioética y derechos humanos, lidera la creación de estas normas. Y si bien la regulación es clave, también lo es la responsabilidad individual.