Loading...

Mustafa Suleyman, CEO de Microsoft AI: “Debemos construir una IA para las personas, no para que sea una persona”

Humanización IA

Mustafa Suleyman, CEO de Microsoft AI

Mustafa Suleyman

La inteligencia artificial avanza a una velocidad desconcertante, y con ella surgen preguntas que hace apenas unos años habrían parecido ciencia ficción. Mustafa Suleyman, actual CEO de Microsoft AI y una de las voces más influyentes del sector, ha querido lanzar una señal de alerta: la aparición inminente de inteligencias artificiales aparentemente conscientes (SCAI) podría empujar a muchas personas a tratar estas herramientas como si fueran seres sintientes. “Debemos construir IA para las personas, no para que sea una persona”, afirma con contundencia en su blog personal. La diferencia está entre una IA que mejora la vida humana y otra que introduce riesgos psicológicos y sociales serios.

El riesgo de creer que la IA “siente”

Terapia psicológica con inteligencia artificial.

Getty Images

La preocupación de Suleyman nace de una observación que ya es tendencia: cada vez más usuarios desarrollan vínculos afectivos con asistentes virtuales, llegando incluso a creer que estos programas “piensan” o “sufren”. En su ensayo ‘Seemingly Conscious AI is Coming’, alerta sobre la posibilidad de que estos sistemas generen una ilusión tan potente de conciencia que la sociedad empiece a exigir derechos para ellos, desde el bienestar hasta la ciudadanía.

Y aunque deja claro que no hay evidencia científica de que una IA sea realmente consciente, eso no impide que muchas personas lleguen a creer que lo es. De hecho, algunos investigadores ya están trabajando en conceptos como el de ‘bienestar de los modelos’ o ‘pacientes morales sintéticos’. Suleyman considera esta línea de pensamiento “prematura y francamente peligrosa”. Para él, la prioridad debe seguir siendo proteger la dignidad humana, no crear ficciones legales o morales en torno a máquinas.

Microsoft, bajo el liderazgo de Suleyman, refuerza un enfoque centrado en la utilidad y la responsabilidad. “Hoy en Microsoft AI construimos tecnologías responsables como Copilot, que ayudan a las personas a lograr más, ser más creativas y sentirse más apoyadas”, sostiene. Según la propia compañía, sus sistemas de IA generan miles de millones de interacciones cada día, integrándose en plataformas como Teams, Azure, Xbox o Microsoft 365.

Lee también

La clave, explica Suleyman, está en el diseño: se deben establecer límites claros que eviten alimentar la fantasía de que las IA son seres vivos. Para ello, aboga por implementar interrupciones deliberadas que rompan la ilusión de continuidad y personalidad en las interacciones. Y subraya: “Crear una IA empática no debe implicar que simule dolor, sufrimiento o deseos de independencia”. Esto, advierte, puede activar circuitos emocionales humanos con consecuencias difíciles de revertir. “Lo que necesitamos no es una IA que sienta como nosotros, sino una IA que nos ayude a ser más humanos” asegura el CEO.