Loading...

El ‘washing’ llega a la IA: no es oro todo lo que reluce

Especial inteligencia artificial: estrategias de mercad0o

Estrategias de marketing fraudulentas se ofrecen cada vez más enmascaradas en servicios de inteligencia artificial

Las prácticas fraudulentas se han extendido también a los IA 'agents' 

MF3d / Getty

A principios del año pasado, una startup valorada en más de mil millones de euros se hundió de un día para otro. Detrás de la caída había un engaño mayúsculo: se vendían servicios de software supuestamente generados por inteligencia artificial cuando, en realidad, detrás había un ejército de centenares de trabajadores tecleando código sin parar para cumplir con el cometido.

El caso de Builder.ai fue uno de los primeros escándalos de alcance mundial del fenómeno IA washing . O lo que es lo mismo: que una empresa venda supuestos servicios de inteligencia artificial cuando en realidad no lo son. Gracias a ello, se consiguen ventajas competitivas y comerciales de forma ilícita, inflando precios y prometiendo resultados que nunca llegan.

Builder.ai vendía software generado por IA pero en verdad lo hacían trabajadores tecleando código

La caída del unicornio americano ha sido uno de los casos más paradigmáticos, pero esta práctica se ha extendido también entre empresas de todos los tamaños y, en especial, en el caso de los IA agents o agentes de inteligencia artificial. Se dice que estas soluciones son el siguiente paso en herramientas de IA: no solo son capaces de procesar información y generar contenido, también son capaces de llevar a cabo acciones por sí solos de forma autónoma e independiente.

Con la llegada de la inteligencia artificial generativa, muchas compañías que ya trabajaban con soluciones basadas en bots pasaron a incorporar la IA generativa, que supone un salto enorme en esta evolución. “Este tipo de agente se comporta de una forma completamente distinta. La resolución de incidencias se multiplica de forma exponencial”. Mauricio Lázaro es el director de innovación de Inconcert, una empresa tecnológica especializada en soluciones de automatización y experiencia del cliente. La implementación de esta nueva tecnología ha supuesto un cambio brutal en sus clientes: han pasado de una media de resolución del 27% de las incidencias a un 73%.

225.000

“Había un porcentaje muy alto de usuarios que se perdían en el menú de opciones y acababan pidiendo asistencia humana”. La clave, cuenta, está en entrenar a los agentes casi como si fueran humanos, explicándoles lo que tienen que hacer de forma muy precisa y brindarle los accesos necesarios para dar una solución definitiva a los problemas que se les plantean. “El inconveniente llega cuando aparecen empresas que, sin la implementación de estas nuevas tecnologías, venden falsos servicios de IA generativa. Muchas de ellas siguen trabajando con bots tradicionales que no han evolucionado a nivel tecnológico, pero venden una narrativa completamente opuesta”. La trampa está en el precio: estos nuevos agentes tienen un coste entre un 30% y un 40% más elevado, por lo que siguen vendiendo lo mismo, pero mucho más caro. “Algunos de nuestros competidores han dado un giro de marketing en lugar de tecnológico, lo que genera bastante confusión en el mercado”. Muchos clientes, por ende, acaban frustrándose.

En abril de 2024, la Securities and Exchange Commission (SEC) impuso una multa de 225.000 dólares a la firma de inversión Delphia por afirmar, falsamente, que utilizaba inteligencia artificial para guiar sus decisiones de inversión según criterios ESG. Ellos mismos se jactaban de ser capaces de analizar grandes volúmenes de datos para “predecir tendencias” y seleccionar empresas sostenibles con mejor proyección. En realidad, la compañía no tenía implementados sistemas de IA significativos, y sus decisiones se tomaban sin el apoyo de algoritmos ni modelos predictivos.

La firma de inversión Delphia fue multada con 225.000 dólares por decir falsamente que usaba IA para guiar sus inversiones

Unos meses más tarde, en septiembre del 2024, el fundador y director general de la startup Nate fue acusado de fraude y tergiversación intencional. Una empresa que supuestamente utilizaba IA para automatizar procesos de compra online en miles de tiendas tenía, como en el caso de Builder.ai, un equipo de trabajadores humanos detrás realizando manualmente todas las transacciones. La compañía recaudó 80 millones de dólares de financiación y se presentaba como pionera en la tecnología disruptiva del comercio autónomo.

Además de la SEC, el Federal Trade Commission (FTC), un organismo con competencias en consumo, publicidad y prácticas comerciales en general, ha comenzado a perseguir casos de AI-washing en los Estados Unidos. Está ocurriendo lo mismo en Europa, mediante la Regulación (EU) 2024/1689, más comúnmente llamada EU AI Act. La duda es si la legislación será de capaz evolucionar a la misma velocidad de vértigo que la tecnología. O, por contra, seguirá ocurriendo lo que reza el nuevo dicho: hecha la ley, hecha la IA.