Hacia una IA fiable: cómo Perplexity trabaja con medios para no caer en las fake news

IA

El 'Programa de Editores' de Perplexity es una iniciativa que busca contar con medios de comunicación verificados para ayudar a la IA a contestar con autenticidad

Collage de humanos controlados por una IA.

Collage de humanos controlados por una IA.

Getty Images

Estos últimos años están siendo un quebradero de cabeza para la preservación de la verdad. En 2017, el Diccionario Oxford seleccionó “fake news” como palabra del año, un término que tenía mucho que ver con el primer alzamiento de Donald Trump como Presidente de Estados Unidos y con los millones de bulos que comenzaron a tomar las redes sociales tanto para promover ideas políticas como para, simplemente, estafar a los usuarios.

Y todo esto fue antes de la IA. Desde que OpenAI lanzara ChatGPT a finales de 2022, la era de la posverdad se ha extendido con una velocidad pasmosa. Ya no es solo que no nos podamos fiar de lo que publique la gente en redes sociales o lo que promuevan los medios. Es que hasta, incluso, no podemos fiarnos de si una imagen o vídeo es real o no por culpa de los Deepfakes.

Fake news.

Fake news.

iStock

Perplexity da un paso más

Luchando contra la desinformación en la era de las fake news

En este contexto, surge un peligro añadido: la información que te da la IA. Muchos ya, en lugar de buscar en Google, preguntan a ChatGPT u otros chatbots sus dudas. Pero, desde los primeros modelos del software de OpenAI, se han encontrado respuestas “no del todo ciertas” y propagación de bulos peligrosos.

El porqué de este problema es sencillo: las IAs no solo se entrenan con información real. Además de los estudios, investigaciones y libros de historias que cargan la memoria de los chatbots, también se alimentan de pseudociencia e información falsa propagada por medios. Así que el descontrol sobre las respuestas que te puedan dar es absoluto.

Perplexity, chatbot respaldado por Jeff Bezos y Nvidia, busca ser la respuesta a este problema. Desde su lanzamiento, esta IA integró un motor de búsqueda conversacional que no solo responde preguntas con lenguaje natural, sino que también cita sus fuentes, ofreciendo así una transparencia poco común en la inteligencia artificial. Es un método que han copiado ChatGPT y Gemini, por lo que parece ser el modelo a seguir... pero todavía no es suficiente.

Portada de Santa Fe New American.

Portada de Santa Fe New American.

Getty Images

Para llegar a un nivel de fiabilidad real por parte de los usuarios, Perplexity ha lanzado el 'Programa de Editores', una iniciativa que busca contar con medios de comunicación verificados para ayudar a la IA a contestar con autenticidad. Medios como TIME, Der Spiegel, Fortune o el grupo español PRISA se han unido para ceder contenido verificado a Perplexity, a cambio de una parte de los ingresos que la IA genere con ese conocimiento. El modelo parece lógico: transparencia a cambio de retribución.  

Lee también

Nace Visa Intelligent Commerce, una solución que usa la IA para ofrecer compras más personalizadas y seguras

Europa Press
Nace Visa Intelligent Commerce, que usa la IA para ofrecer compras más

No obstante, el movimiento va más allá del negocio. Perplexity está integrando sus sistemas en plataformas como WhatsApp, permitiendo que cualquiera envíe mensajes sospechosos para ser verificados en segundos. Un fact-checking exprés, en más de 20 idiomas, ideal para esos grupos de familia donde todavía hay quien reenvía cadenas alarmistas sacadas de la peor época de las fake news. Gracias a iniciativas como Perplexity, quizás todavía quede algo de esperanza para el periodismo.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...