Investigadores desarrollan métodos para frenar los excesos de la IA en la generación de contenido

La IA enfrenta un reto crítico con las alucinaciones, afectando su fiabilidad en un 30%. La solución propuesta por Stanford podría cambiar la forma en que interactuamos con los chatbots.

Investigadores desarrollan métodos para frenar los excesos de la IA en la generación de contenido
NeboAI Te resumo la noticia con datos, cifras y contexto
EN 30 SEGUNDOS

EN 1 ORACIÓN

SENTIMIENTO
Neutro

𒀭
NeboAI está trabajando, aguarda un instante...
Preparando análisis detallado
Resumen rápido completado
Extrayendo datos, cifras y citas...
Identificando protagonistas y contexto
ANÁLISIS DETALLADO
COMPARTIR

NeboAI produce ediciones automáticas de textos periodísticos en forma de resúmenes y análisis. Sus resultados experimentales están basados en inteligencia artificial. Por tratarse de una edición de IA, los textos eventualmente pueden contener errores, omisiones, establecer relaciones equivocadas entre datos y otras inexactitudes imprevistas. Recomendamos chequear la edición.

Las alucinaciones de los modelos de lenguaje, como los utilizados por ChatGPT, continúan siendo un desafío significativo, afectando la fiabilidad de estas herramientas. La investigadora Shuhui Qu de la Universidad de Stanford ha propuesto un nuevo enfoque para mitigar este problema, que consiste en la Planificación Categorial Bidireccional con Auto-Consulta. Este método busca que los modelos reconozcan explícitamente sus limitaciones y se detengan ante la falta de información en lugar de hacer suposiciones.

El defecto inherente de los modelos de lenguaje actuales radica en su tendencia a responder con confianza, incluso cuando carecen de datos precisos. Qu sugiere que, en cada etapa del razonamiento, los modelos deben preguntarse si realmente poseen la información necesaria. Si se encuentran con una condición desconocida, deben frenar el proceso y abordar la incertidumbre antes de continuar.

Este planteamiento implica que los modelos pueden obtener información adicional formulando preguntas específicas o introduciendo pasos intermedios para verificar la información. Así, el objetivo no es que estos sistemas piensen de manera más inteligente, sino que dejen de pretender saberlo todo.

¿Quieres leer la nota completa? Accede al artículo original con todos los detalles.
Leer Artículo Original
TL;DR

Este artículo es un resumen original con fines informativos. Créditos de imagen y cobertura completa en la fuente original. · Ver Política de contenidos

Redacción
Redacción Equipo Voz Económica

Nuestro equipo de redacción trabaja a diario para ofrecerte las noticias económicas más relevantes de España y el mundo. Cubrimos desde la actualidad del IBEX 35 y los mercados financieros hasta las novedades en empleo, vivienda, banca e impuestos. Nuestra misión es mantenerte informado con contenido riguroso, accesible y actualizado para que tomes mejores decisiones.

Presiona Enter para buscar o ESC para cerrar