Mustafa Suleyman, CEO de Microsoft AI: “Debemos construir una IA para las personas, no para que sea una persona”
Humanización IA
Cuidado con tratar a las inteligencias artificiales como si fueran personas
Sam Altman, CEO de OpenAI: “Creo que no sabemos todavía la forma en la que la IA va a tener efectos negativos en la salud mental, pero creo que los va a tener, y espero que aprendamos a mitigarlos rápidamente”
Mustafa Suleyman, CEO de Microsoft AI
La inteligencia artificial avanza a una velocidad desconcertante, y con ella surgen preguntas que hace apenas unos años habrían parecido ciencia ficción. Mustafa Suleyman, actual CEO de Microsoft AI y una de las voces más influyentes del sector, ha querido lanzar una señal de alerta: la aparición inminente de inteligencias artificiales aparentemente conscientes (SCAI) podría empujar a muchas personas a tratar estas herramientas como si fueran seres sintientes. “Debemos construir IA para las personas, no para que sea una persona”, afirma con contundencia en su blog personal. La diferencia está entre una IA que mejora la vida humana y otra que introduce riesgos psicológicos y sociales serios.
El riesgo de creer que la IA “siente”
Terapia psicológica con inteligencia artificial.
La preocupación de Suleyman nace de una observación que ya es tendencia: cada vez más usuarios desarrollan vínculos afectivos con asistentes virtuales, llegando incluso a creer que estos programas “piensan” o “sufren”. En su ensayo ‘Seemingly Conscious AI is Coming’, alerta sobre la posibilidad de que estos sistemas generen una ilusión tan potente de conciencia que la sociedad empiece a exigir derechos para ellos, desde el bienestar hasta la ciudadanía.
Y aunque deja claro que no hay evidencia científica de que una IA sea realmente consciente, eso no impide que muchas personas lleguen a creer que lo es. De hecho, algunos investigadores ya están trabajando en conceptos como el de ‘bienestar de los modelos’ o ‘pacientes morales sintéticos’. Suleyman considera esta línea de pensamiento “prematura y francamente peligrosa”. Para él, la prioridad debe seguir siendo proteger la dignidad humana, no crear ficciones legales o morales en torno a máquinas.
Microsoft, bajo el liderazgo de Suleyman, refuerza un enfoque centrado en la utilidad y la responsabilidad. “Hoy en Microsoft AI construimos tecnologías responsables como Copilot, que ayudan a las personas a lograr más, ser más creativas y sentirse más apoyadas”, sostiene. Según la propia compañía, sus sistemas de IA generan miles de millones de interacciones cada día, integrándose en plataformas como Teams, Azure, Xbox o Microsoft 365.
La clave, explica Suleyman, está en el diseño: se deben establecer límites claros que eviten alimentar la fantasía de que las IA son seres vivos. Para ello, aboga por implementar interrupciones deliberadas que rompan la ilusión de continuidad y personalidad en las interacciones. Y subraya: “Crear una IA empática no debe implicar que simule dolor, sufrimiento o deseos de independencia”. Esto, advierte, puede activar circuitos emocionales humanos con consecuencias difíciles de revertir. “Lo que necesitamos no es una IA que sienta como nosotros, sino una IA que nos ayude a ser más humanos” asegura el CEO.