Según la consultora Gartner, a través de un estudio liderado por Anushree Verma, al menos el 40% de los proyectos de Agentes de IA implantados por empresas se cancelarán antes del 2027. En palabras de la propia investigadora “Actualmente, la mayoría de los proyectos de IA con agentes son experimentos en etapas iniciales o pruebas de concepto, impulsados principalmente por la publicidad exagerada y comúnmente mal implantados”.
Gartner dice que son los propios proveedores de tecnología los que exageran los potenciales beneficios de los agentes de IA con tal de vender su tecnología. Atención a esto!!!!!
Los mandos intermedios de cualquier organización tienen dos objetivos principales: servir de soporte y coordinar tareas. ¿Y si conseguimos que la IA haga de soporte y que además, gracias a su uso, los empleados tengan más tiempo para auto coordinarse?
Esta es la intuición que ha tenido un grupo de investigadores que han desarrollado un estudio para buscar evidencias de como la IA puede cambiar la naturaleza histórica de las empresas. Para ello han utilizado como muestra un grupo de empresas de desarrollo de software en código abierto que dividieron en dos grupos: a uno de los grupos les dieron de forma gratuita el uso de Github Copilot para sus tareas, mientras que las empresas del otro grupo no tenía acceso a la IA mencionada.
Se llama proyecto Vend y es una iniciativa del equipo de #Anthropic responsable del desarrollo de #ClaudeSonnet. El proyecto consistió en entrenar el modelo LLM Sonnet 3.7 en temas de administración empresarial y ponerlo al mando de una máquina de vending en las propias oficinas de Anthropic. Al modelo entrenado le llamaron Claudius y podía tomar sus propias decisiones empresariales durante unos días mientras los propios empleados hacían uso de ella.
Estoy aprovechando el verano para ver algunas películas preferidas de mi época con mi hijo, sin ningún objetivo en particular más allá de pasar más tiempo juntos con alguna que otra conversación sobre lo que pensábamos entonces comparado con lo de hoy (espero que no se entere de esto 😉).
El caso es que Matrix es una de mis favoritas desde siempre, y viendo de nuevo la película (y van sobre unas 10 u 11) veo un mensaje en una escena que es el día a día de lo que intento divulgar. La escena es la siguiente: Morpheo es capturado por el agente Smith, y éste le dice que construyeron Matrix en el apogeo de nuestra civilización, y repite “nuestra civilización” porque cuando las máquinas empezaron a pensar por los humanos dejó de ser nuestra civilización para ser la de ellos. Vaya mensaje!!! Vaya verdad!!!
No me cansaré de repetir las razones por las que los humanos no podemos permitir que la IA sustituya nuestra capacidad de pensar: (1) Por la deuda cognitiva; (2) Por hacernos más tontos y ella más inteligente; (3) Por el empleo; (4) Por seguir desarrollando nuestro potencial; (5) etc… Si veis mi perfil veréis decenas de publicaciones en Youtube y en Linkedin donde no me cansaré de repetirlo.
La IA debe ser bien utilizada para potenciar nuestras habilidades cognitivas como el razonamiento, la solución de problemas complejos o la creatividad entre otros, pero nunca, nunca, para sustituirnos en tareas que genuinamente deben ser nuestras y que no debemos delegar en la IA. Cada vez que delegamos una tarea que debimos hacer nosotros entramos en deuda con nosotros mismos. En deuda cognitiva.
No lo digo yo, lo dice Smith, que es un agente de IA tan de moda últimamente. Aunque sea sólo por esto, démosle una reflexión!!!!
El estudio del comportamiento humano es un gran desafío no resuelto, y es que entender como pensamos, como resolvemos problemas o como razonamos no es tarea fácil. Motivados por esta complejidad, los investigadores han intentando entender hasta ahora los procesos mentales por separado creando modelos de memoria, modelos de razonamiento o modelos de toma de decisiones. Pero de nuevo, la IA Generativa, puede romperlo todo.
Un artículo de investigación (paper) titulado “A foundation model to predict and capture human cognition” y cuyo enlace dejo más abajo, concluye que todos nuestros procesos cognitivos (pensamiento, memoria, razonamiento, decisiones, etc…) tienen la misma base de funcionamiento y son predecibles. Si esto es así, hasta nuestras intuiciones serían predecibles.
Esta mañana he visto la noticias en Expansión que anuncia la captación de 6 millones de euros por parte de TuringDream para el desarrollo de su propia plataforma de creación de agentes de #IA con la que ya están desarrollando un tutor en educación llamado TAU. En la ronda han participado Adara Ventures y Next Tier Ventures, esta última especializada en #InteligenciaArtificial. Felicidades a los fundadores jose moran, Juan Mirán y Manuel Tarrasa.
¿Cuántas se ha dicho que una tecnología en particular cambiaría el sistema educativo? Innumerables, y ninguna lo ha conseguido. Eso no significa que la IA no pueda hacerlo puesto que capacidad no le falta. Pero no será fácil. Veamos algunos retos a los que se enfrenta el trabajo de TuringDream y otros similares.
Un estudio desarrollado por investigadores del MIT concluye que la Inteligencia Artificial Generativa reduce nuestras capacidades cognitivas como la memoria, el razonamiento o la creatividad si no la utilizamos de forma adecuada.
El Estudio del MIT: Una Mirada en Profundidad
Este estudio, realizado con estudiantes universitarios a lo largo de cuatro meses, fue diseñado para observar las diferencias en el rendimiento y las capacidades cognitivas bajo distintas condiciones de uso de la IA. Los investigadores dividieron a los alumnos en tres grupos, a quienes se les asignó la misma tarea: desarrollar un ensayo o artículo de opinión propio sobre un tema específico.
He visto una publicación de Beatriz Vallina en la que comentaba un post de Sam Altman y, aunque no lo sigo mucho, me he puesto a leer lo que ha publicado en su blog, y os comento algunas cuestiones e inquietudes personales.
Utilizo mucho la IA Generativa en mi día a día para una gran cantidad de tareas, desde buscar información por la red con hashtag#Perplexity, a desarrollar resúmenes y traducción de artículos de investigación con hashtag#NotebookLM, hasta para desarrollar modelos de agentes de IA con hashtag#Cursor que me ayudan a potenciar mis capacidades cognitivas como creatividad, razonamiento o resolución de problemas complejos. Es brutal ver como un uso con sentido aporta un valor enorme.
Ahora bien, estoy empezando a leer cada vez más artículos que argumentan que la calidad de las respuestas de los modelos GenAI ha bajado y he buscado información sobre ello. He encontrado tres interesantes artículos de investigación cuyo link dejo más abajo y que describen bien la situación actual.
Parece un capítulo de hashtag#BlackMirror pero no lo es. Hace unos días hablaba con un alumno y me contaba que había hecho su CV completo con Gemini y que lo había hecho así porque los evaluadores son también algoritmos de IA. Aquí hay un tema importante a resaltar: cuando una persona hace un CV siempre incluye matices que otra persona (evaluador) valorará de él, pero ¿Y si el evaluador es una IA? Parece tener sentido pensar que una IA incorporará igualmente matices a ese CV que otra IA valorará de forma positiva.