REDACCIÓN.- La inteligencia artificial (IA) se ha convertido en una herramienta fundamental, sin embargo, la proliferación de modelos de lenguaje de gran tamaño (LLM) como GPT-4 ha sacado a la luz un desafío crucial, la desconfianza de los humanos.
Este fenómeno se caracteriza por presentar respuestas erróneas presentadas por la IA, que para algunos usuarios es notoria su falta de veracidad, mientras que para otros terminan siendo perjudicados al usar información falsa para algunas tareas diarias a nivel educativo o laboral.
Por esta razón, Microsoft está trabajando en estrategias para minimizar la información falsa difundida por la IA, que todavía no cuenta con la total credibilidad en algunos campos de estudio.
La inteligencia artificial se equivoca en varias ocasiones como cuando se le pide un artículo sobre un tema en específico y termina arrojando un resultado que no corresponde. Un hecho que trae desconfianza a los humanos.
Estos errores son llamados alucinaciones que ocurren cuando los modelos de IA, a pesar de estar entrenados con grandes cantidades de datos, producen respuestas que se desvían de la realidad.
Entonces Microsoft para evitar estos contratiempos ha decidido someter a sus modelos de IA a pruebas rigurosas diseñadas para inducir la creación de información falsa.
Esta estrategia, similar a un entrenamiento de resistencia para la IA, permite a los investigadores identificar las vulnerabilidades en los modelos y desarrollar soluciones para contrarrestarlas.
Para evitar que la inteligencia artificial ofrezca respuestas falsas, varias compañías trabajan en planes de acción, que optimicen la veracidad de la IA.
“Microsoft quiere asegurarse de que cada sistema de IA que construye ofrece la confianza necesaria para poder utilizarlo de forma eficaz”, afirmó Sarah Bird, directora de producto de Responsible AI en Microsoft, en un comunicado oficial emitido por la empresa.
Con este principio de mente, Microsoft ha concentrado sus esfuerzos en enriquecer sus modelos con información precisa y actualizada a los más recientes. Este enfoque, basado en datos de calidad, busca minimizar las posibilidades de que la IA genere información errónea o inventada, y reducir posibles secuelas desafortunadas.