Root NationNoticiasChatGPT y otros chatbots de IA no dejarán de encontrar respuestas

ChatGPT y otros chatbots de IA no dejarán de encontrar respuestas

-

- Advertisement -

ChatGPT de OpenAI, Bard de Google y Bing AI de Microsoft son increíblemente populares por su capacidad para generar rápidamente grandes volúmenes de texto y hablar de manera convincente, casi como un ser humano, pero las “alucinaciones” de IA, también conocidas como fabricaciones, son un problema importante con estos chatbots. Desafortunadamente, como advierten los expertos, probablemente siempre será así.

Un nuevo informe de Associated Press destaca que el problema de la confabulación de los modelos de lenguaje extenso (LLM) puede no ser tan fácil de resolver como afirman muchos fundadores de tecnología y defensores de la IA. Al menos, eso es de lo que está segura Emily Bender, profesora de la Universidad de Washington que trabaja en el Laboratorio de Lingüística Computacional.

- Advertisement -

ChatGPT y otros chatbots de IA no dejarán de encontrar respuestas

“No se puede arreglar”, dice Emily Bender. “Es debido a la falta de coincidencia entre la tecnología y los casos de uso propuestos”.

Pero según Shane Orlick, presidente de Jasper AI, en algunos casos el problema de la ficción es en realidad una ventaja. “Las alucinaciones son realmente una ventaja adicional”, dice Shane Orlick. “Tenemos clientes que nos cuentan todo el tiempo cómo se les ocurrieron las ideas porque la IA de Jasper creó historias o ángulos en los que nunca habrían pensado por sí mismos”.

- Advertisement -

Del mismo modo, las alucinaciones de IA son una gran ventaja en el caso de la generación de imágenes de IA. Modelos como Dall-E y Midjourney pueden crear looks realmente impresionantes. Sin embargo, para la generación de texto, las alucinaciones siguen siendo un problema real, especialmente cuando se trata de noticias, donde la precisión es vital.

“[Los LLM] están diseñados para inventar cosas. Eso es todo lo que hacen”, dice Emily Bender. “Pero solo inventan cuando el texto que producen puede interpretarse como lo que creemos que es correcto. Y, desafortunadamente, incluso después de los ajustes, lo harán todavía fallan, y lo más probable es que fallen en situaciones en las que es más difícil para un lector humano notarlo”.

ChatGPT

Los LLM son herramientas poderosas que pueden hacer grandes cosas, pero las empresas y la industria de la tecnología deben comprender que el hecho de que algo sea poderoso no significa que siempre sea una buena herramienta para usar. Un martillo neumático es la herramienta adecuada para romper el pavimento y el asfalto, pero no lo llevaría a una excavación arqueológica. De manera similar, la adopción de chatbots de IA por parte de las principales organizaciones de noticias y el posicionamiento de estas herramientas como innovaciones que ahorran tiempo a los periodistas es un malentendido fundamental sobre cómo usamos el lenguaje para transmitir información importante.

Como dice Emily Bender, la IA se construye desde cero para predecir la siguiente palabra en una secuencia en función de una pista que le des. A cada palabra en sus datos de entrenamiento se le asigna un peso o porcentaje que seguirá a una palabra determinada en un contexto determinado. Los grandes modelos de lenguaje son grandes imitadores que no tienen idea de lo que realmente están diciendo, y tratarlos como cualquier otra cosa te traerá problemas.

- Advertisement -

Esta debilidad está integrada en el propio LLM y, si bien las “alucinaciones” pueden reducirse en iteraciones futuras, no pueden repararse de forma permanente, por lo que siempre existe el riesgo de fallar.

Aquí te dejamos una lista de noticias que de seguro vas a querer leer:

Fuentetechradar
- Advertisement -
Subscribe
Notify of
guest

0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments