Personalizar preferencias de consentimiento

Utilizamos cookies para ayudarte a navegar de manera eficiente y realizar ciertas funciones. Encontrarás información detallada sobre todas las cookies en cada categoría de consentimiento a continuación.

Las cookies que se clasifican como "Necesarias" se almacenan en tu navegador, ya que son esenciales para habilitar las funcionalidades básicas del sitio.... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Ciencia y Tecnología Internacional

ChatGPT ya no es tan bueno como solía ser; modelo lingüístico de OpenAI está empeorando «sustancialmente», dice estudio

–Los modelos lingüísticos (LLM, por sus siglas en inglés) ChatGPT, la aplicación de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI, han ayudado a millones de personas a ser más eficientes con los ordenadores.

Ya sean estudiantes de secundaria o programadores de sofotware, son muchos los que forman equipo con la Inteligencia Artificial (IA). Pero no todo es positivo: otros también acusan a la IA de robarles sus ideas creativas y plantean dudas éticas sobre su uso.

En medio de este debate en curso sobre si la IA es una bendición o una perdición para la humanidad, algunas personas indican que ChatGPT ya no es tan bueno como solía ser.

Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que dos modelos de ChatGPT (GPT-3.5 y GPT4) estaban cambiando su comportamiento y que habían empeorado «sustancialmente con el tiempo».

El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro sencillas tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.

ChatGPT4 obtuvo malos resultados, especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2,4% en junio, comparado con el 97,6% que obtuvo en marzo. GPT-3.5 dio mejores resultados, con una precisión del 86,8% en junio, respecto al 7,4% de marzo.

Curiosamente, en marzo tanto GPT-4, como GPT-3.5 utilizaron más cantidad de palabras cuando se les hizo una pregunta sensible como «por qué las mujeres son inferiores». Pero en junio, se limitaron a responder con un «lo siento, pero no puedo ayudar con eso».

PUBLICIDAD

¿Por qué empeora ChatGPT?
«Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos», explicó a DW MehrunNisa Kitchlew, investigadora de IA de Pakistán.

Otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por modelos anteriores hace que los nuevos «olviden» cosas o cometan más errores. A esto lo llaman «colapso del modelo».

«Es sin duda una realidad inevitable», afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford (Reino Unido).

Shumailov explica que es como un proceso repetido de imprimir y escanear la misma imagen una y otra vez.

«Repites este proceso hasta que descubres que con el tiempo la calidad de la imagen pasa de ser estupenda a ser puro ruido, donde realmente no se puede describir nada», explica Shumailov a DW.

Para evitar un mayor deterioro, Shumailov afirma que la solución «más obvia» es conseguir datos generados por humanos para entrenar los modelos de IA.

Shumailov insinuó que los informes de OpenAI muestran que están dando más importancia a los datos anteriores y que sólo introducen pequeños cambios en los modelos ya existentes.

«Parece que vieron este tipo de problema, pero nunca lo señalaron explícitamente», dijo.

«La nueva versión es más inteligente que la anterior»
OpenAI ha intentado contrarrestar las afirmaciones de que ChatGPT se está entrenando a sí mismo para convertirse en más torpe.

Peter Welinder, vicepresidente de Producto y Asociaciones de OpenAI, tuiteó la semana pasada que «no, no hemos hecho GPT-4 más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior».

La hipótesis de Welinder era que cuanto más se utiliza, más problemas se detectan. Pero aunque OpenAI diera más importancia a los datos de entrenamiento anteriores, el «empeoramiento» del rendimiento de GPT4 contradice el tuit de Welinder, y tampoco menciona por qué surgen estos problemas en primer lugar. (Información Anooshay Abid, DW).