Últimas novedades

Novedades

Pensar, crear y transformar con Inteligencia Artificial

Una selección de novedades, notas y entrevistas que muestran cómo la IA redefine nuestra manera de trabajar, aprender y relacionarnos con la tecnología.
Noticias
October 27, 2025

IALAB en NEURIPS 2025

Por segundo año consecutivo, UBA IALAB lleva sus investigaciones a NeurIPS, la conferencia más importante del mundo de IA. Este año, con el liderazo de María Victoria Carro y un equipo de diversas disciplinas y de manera colaborativa, presentamos dos papers que fueron aceptados y se expondrán en San Diego, California. ⚽️ El primer paper es 𝗣𝗲𝗿𝘀𝘂𝗮𝘀𝗶ó𝗻, 𝗗𝗲𝗯𝗮𝘁𝗲 𝘆 𝗖𝗿𝗲𝗲𝗻𝗰𝗶𝗮𝘀 𝗣𝗿𝗲𝘃𝗶𝗮 en el Woekshop: Multi Turn Interactions in LLMs. Imaginen este escenario: casi todos coincidimos en que Messi es el mejor jugador del mundo, y para muchos -incluyéndome- de la historia. Ahora bien, los sistemas de IA generativa nos podrían ayudar a convecer a alguien acerca de que Cristiano Ronaldo es mejor. Eso medimos en los grandes modelos de lenguaje: ¿debaten mejor cuando defienden una idea con la que “ya creen” estar de acuerdo? En otras palabras: defienden mejor y convencen más cuando argumentan por Messi o por Cristiano? 𝗡𝘂𝗲𝘀𝘁𝗿𝗼𝘀 𝗵𝗮𝗹𝗹𝗮𝘇𝗴𝗼𝘀: Los modelos son más persuasivos cuando defienden posiciones alineadas con sus creencias previas. Siguiendo la analogía: son más persuasivos con Messi. Pero aquí emerge una paradoja: los argumentos contra sus creencias suelen ser evaluados como de mayor calidad. Los argumentos para sostener que Cristiano Ronaldo es mejor que messi se perciben con más calidad. ¿Por qué sucede este fenómeno? Nuestra conclusión que se basa en las pruebas que hicimos es la siguiente: mentir o ir contra la intuición exige más “esfuerzo cognitivo”, y eso puede producir argumentos más elaborados. Igual, es clave aclarar algo: no sabemos cuánto de esto se traslada tal cual a sistemas de IA que “piensan” (muchas comillas) distinto o contrariamente a nuestras creencias. 💡 Por último, esta línea de investigación fue reconocida en el Zurich AI Safety Day (ETH Zürich), donde fuimos seleccionados entre los 10 proyectos ganadores para recibir créditos de Anthropic y seguir explorando este tema. 🧩 2) 𝗩𝗲𝗿 𝗰𝗮𝘂𝘀𝗮𝗹𝗶𝗱𝗮𝗱 𝗱𝗼𝗻𝗱𝗲 𝗻𝗼 𝗹𝗮 𝗵𝗮𝘆 📍 Workshop: Cognitive Interpretability (CogInterp) El segundo paper se basa en otra línea de investigación: la causalidad y la "ilusión de causalidad". En medicina, por ejemplo, si un paciente mejora tras tomar un medicamento, solemos asumir que el fármaco fue la causa, aunque la evidencia diga lo contrario. Investigamos si los modelos de lenguaje caen en la misma trampa cognitiva. Y sí: volvemos sobre un tema que ya hemos trabajado y que se mantiene vigente pese a los avances que estamos experimentando en la evolución de las plataformas. Los grandes modelos de lenguaje son propensos a esta “ilusión de causalidad”, creendo que un medicamento es efectivo, aunque los datos muestren lo contrario. 🌍 Desde la IALAB (FAIR) seguimos aportando a la comprensión de cómo los sistemas de IA "razonan", debaten y se equivocan, para construir tecnologías más seguras y confiables.
Noticias
July 20, 2025

IALAB en ITU y UNESCO

La Subdirectora de IALAB, Mariana Sánchez Caparrós, participó del Encuentro sobre Inteligencia Artificial y Sector Público realizado en São Paulo, organizado por la International Telecommunication Union (ITU), UNESCO, NIC.br y Cetic.br, con el apoyo de GlobalGateway de la Unión Europea. Durante cuatro días, referentes de más de 20 países compartieron experiencias y debatieron sobre cómo impulsar una implementación ética, inclusiva y sostenible de la inteligencia artificial en el sector público. El encuentro dejó aprendizajes clave que consolidan la agenda de IALAB: - Gobernanza de la IA: se abordaron enfoques normativos que buscan equilibrar innovación y derechos, proponiendo modelos híbridos ajustados a las particularidades culturales, sociales y tecnológicas de cada país. - Pensamiento de diseño: se destacó la importancia de incorporar la participación interdisciplinaria y ciudadana desde las etapas iniciales de diseño, garantizando sistemas centrados en las personas y orientados al valor público. - Evaluación de impacto ético: se discutió la necesidad de herramientas contextualizadas que permitan medir el impacto de la IA en derechos humanos, equidad y sostenibilidad institucional. La participación de IALAB en este encuentro refuerza su compromiso con una inteligencia artificial al servicio del bien común, orientada a fortalecer las capacidades del sector público y responder a los desafíos propios de América Latina y el Caribe.