LOS MODELOS DE IA GENERATIVA ESTÁN EMPEZANDO A COLAPSAR
Utilizo mucho la IA Generativa en mi día a día para una gran cantidad de tareas, desde buscar información por la red con hashtag#Perplexity, a desarrollar resúmenes y traducción de artículos de investigación con hashtag#NotebookLM, hasta para desarrollar modelos de agentes de IA con hashtag#Cursor que me ayudan a potenciar mis capacidades cognitivas como creatividad, razonamiento o resolución de problemas complejos. Es brutal ver como un uso con sentido aporta un valor enorme.
Ahora bien, estoy empezando a leer cada vez más artículos que argumentan que la calidad de las respuestas de los modelos GenAI ha bajado y he buscado información sobre ello. He encontrado tres interesantes artículos de investigación cuyo link dejo más abajo y que describen bien la situación actual.
Que un modelo LLM como ChatGPT o Gemini colapse significa que sus respuestas empeoran porque son entrenados con una cantidad cada vez mayor de datos sintéticos, es decir, una IA colapsa cuando son entrenadas con datos reales de personas junto con datos fabricados por otras IAs, también llamados datos sintéticos.
A esto se le suma una tendencia y es que todos estamos viendo como Internet se está llenando cada vez más de contenido sintético. Muchos blogs corporativos y de “expertos” ves que han sido generados por ChatGPT o similares, y vemos también cada vez más imágenes, papers, artículos, trabajos e incluso podcast enteros hechos por IA. Si sabemos que los nuevos modelos son entrenados en gran parte con información de Internet, y resulta que la red empieza a tener un mayor contenido generado por IA, pues ahí tenemos el problema: que cada vez más, los modelos son entrenados con datos generados por ellos mismos. Colapso del modelo. La serpiente que se muerde la cola.
No todo es malo, los propios artículos de investigación que te paso indican varias formas de entrenar los modelos donde no se aprecia pérdida de eficiencia, al menos hasta el momento de hoy.
Sin embargo, y más allá de todas estas consideraciones técnicas, tenemos que apelar a nuestra responsabilidad sobre cómo las personas estamos usando la herramienta de la IA. Si usamos la IA para sustituirnos en tareas como la escritura o la creación de contenido, finalmente nos sustituirá en muchas otras: las IAs se degradarán y nosotros también. Pero si usamos la IA para potenciar nuestras capacidades cognitivas siempre estaremos muy por encima de ellas. Tú decides. Todos decidimos.
Link 1: https://lnkd.in/dmGGeWnJ
Link 2: https://lnkd.in/diG9j4df
Link 3: https://lnkd.in/d993zxth