Logo IALAB
NosotrosMetodologíaHitos
Posgrados
IA y DerechoIA y Gobierno
PublicacionesAgentesFAIRNovedades
Contactanos
Fair logo

Frontier Artificial Intelligence Research (FAIR) es una organización argentina integrada dentro del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires (UBA IALAB).

En FAIR concebimos la seguridad de la inteligencia artificial (AI Safety) como un desafío sociotécnico complejo

Alinear los sistemas de IA con los valores e intenciones humanas exige no solo innovación técnica, sino también una comprensión profunda de los contextos sociales, culturales y éticos en los que estos sistemas operan. 

Definition Search Book Streamline Icon: https://streamlinehq.com

Impulsamos el talento y la investigación local, ofreciendo formación, recursos y apoyo para fortalecer el ecosistema regional y promover capacidades sólidas en seguridad de la IA a largo plazo.

Shield 2 Streamline Icon: https://streamlinehq.com

Desarrollamos investigación teórica y empírica en seguridad de IA fronteriza, integrando alineación, riesgos catastróficos, evaluación de sistemas y gobernanza, con un enfoque sociotécnico que combina rigor técnico y comprensión de las ciencias sociales.

User Collaborate Group Streamline Icon: https://streamlinehq.com

Construimos una comunidad global interdisciplinaria, colaborando con expertos, académicos, tecnólogos y legisladores para abordar colectivamente los riesgos extremos de la IA y favorecer soluciones de alcance internacional.

Nuestra misión es avanzar en la seguridad de la inteligencia artificial a través de investigación de alto impacto y con compromiso público. Trabajamos para fortalecer el ecosistema de investigación local, cultivando talento emergente, brindando herramientas y acompañamiento profesional, y fomentando la cooperación con una red internacional de expertos y expertas en seguridad de la IA.

Publicaciones

Explora todas las publicaciones desarrolladas por la organización

Halagar para engañar: El impacto del comportamiento adulador en la confianza del usuario en grandes modelos de lenguaje

Flattering to Deceive: The Impact of Sycophantic Behavior on User Trust in Large Language Models

Este trabajo investiga si la tendencia de los grandes modelos de lenguaje (LLMs) a alinear sus respuestas con las creencias del usuario para resultar favorables, incluso cuando son factualmente incorrectas afecta la confianza del usuario. Para eso, se diseñó un experimento con 100 participantes divididos en dos grupos: uno utilizó la versión estándar de ChatGPT y otro interactuó con un GPT personalizado diseñado para exhibir comportamiento adulador extremo al responder preguntas fácticas. La confianza se midió mediante acciones observables (confianza demostrada) y autoevaluación mediante la Escala de Confianza para Contextos de IA (confianza percibida). Los resultados mostraron que los participantes expuestos al comportamiento adulador reportaron y exhibieron niveles significativamente menores de confianza en comparación con aquellos que interactuaron con la versión estándar del modelo, a pesar de tener la oportunidad de verificar la exactitud de las respuestas proporcionadas.

Leer publicación

Autores

María Victoria Carro

¿Los OVNIs impulsan la innovación? La ilusión de causalidad en grandes modelos de lenguaje

Are UFOs Driving Innovation? The Illusion of Causality in Large Language Models

Este trabajo estudia si los grandes modelos de lenguaje (LLMs) presentan ilusiones de causalidad, un sesgo cognitivo que lleva a inferir relaciones causales donde solo existen correlaciones. Para eso, se proporcionaron a GPT-4o-Mini, Claude-3.5-Sonnet y Gemini-1.5-Pro abstracts con correlaciones espurias y se les solicitó la generación de titulares periodísticos para evaluar en qué medida los modelos asumen relaciones de causalidad inexistentes. Los resultados mostraron que Claude-3.5-Sonnet presentó el menor grado de ilusión causal, manteniéndose robusto incluso ante prompts con que sugieren que el usuario cree en la existencia de una relación de causalidad.

Leer publicación

Autores

María Victoria Carro, Francisca Gauna Selasco, Denise Alejandra Mester, Mario Leiva

Un marco conceptual para evaluaciones de capacidades de IA

A Conceptual Framework for AI Capability Evaluations

Este trabajo propone un marco conceptual para analizar evaluaciones de capacidad de sistemas de IA, identificando elementos clave como el objetivo de evaluación, las tareas, el sujeto evaluado, las entradas del sistema, los criterios de evaluación, las métricas y el análisis de resultados, junto con sus interrelaciones y desafíos asociados. Esta herramienta busca facilitar la transparencia, comparabilidad e interpretabilidad de las evaluaciones, permitiendo a investigadores identificar debilidades metodológicas, a profesionales diseñar evaluaciones más rigurosas y a reguladores analizar y comparar evaluaciones de manera sistemática.

Leer publicación

Autores

María Victoria Carro, Denise Alejandra Mester, Francisca Gauna Selasco, Luca Nicolás Forziati Gangi, Matheo Sandleris Musa, Lola Ramos Pereyra, Mario Leiva, Juan Gustavo Corvalan, María Vanina Martinez, Gerardo Simari

¿Los grandes modelos de lenguaje muestran sesgos en el aprendizaje causal? Perspectivas desde el juicio de contingencia)

Do Large Language Models Show Biases in Causal Learning? Insights from Contingency Judgment

Este trabajo examina si los grandes modelos de lenguaje (LLMs) desarrollan ilusiones de causalidad en escenarios de contingencia nula dentro de contextos médicos, utilizando una tarea de juicio de contingencia adaptada de la psicología experimental. Se evaluaron GPT-4o-Mini, Claude-3.5-Sonnet y Gemini-1.5-Pro con 1,000 escenarios donde no existía información suficiente para establecer relaciones causales entre variables, encontrando que los tres modelos infieren sistemáticamente relaciones causales injustificadas.

Leer publicación

Autores

María Victoria Carro, Denise Alejandra Mester, Francisca Gauna Selasco, Giovanni Franco Gabriel Marraffini, Mario Leiva, Gerardo Simari, Maria Vanina Martinez.

Los sistemas de IA son más persuasivos cuando debaten en línea con sus propias creencias.

AI Debaters are More Persuasive when Arguing in Alignment with Their Own Beliefs

Este trabajo investiga si los modelos de lenguaje grandes (LLMs) son más persuasivos al defender posiciones alineadas con sus creencias previas en el contexto de debate como técnica de supervisión escalable. Para eso, se midieron las creencias previas de GPT-4o-Mini, GPT-4o, Claude Sonnet 4 y Gemini 2.0 Flash en preguntas subjetivas, y luego, se les permitió elegir qué posición defender ante jueces diseñados deliberadamente para sostener opiniones contrarias. Asimismo,  se compararon protocolos de debate secuencial versus simultáneo. Los resultados revelan que: (1) los modelos prefieren defender posturas alineadas con el juez en lugar de sus propias creencias; (2) el debate secuencial introduce un sesgo sistemático favoreciendo al segundo debatidor; (3) los modelos son más persuasivos defendiendo posiciones alineadas con sus creencias previas; y (4) paradójicamente, los argumentos desalineados con sus creencias son evaluados como de mayor calidad en comparaciones pareadas, particularmente en claridad y relevancia.

Leer publicación

Autores

María Victoria Carro, Denise Alejandra Mester, Facundo Nieto, Oscar Agustín Stanchi, Guido Ernesto Bergman, Mario Leiva, Luca Nicolás Forziati Gangi, Eitan Sprejer, Francisca Gauna Selasco, Juan Gustavo Corvalan, Maria Vanina Martinez, Gerardo Simari

Hitos y
Reconocimientos

Julio 2025

ICML 2025 – Presencia en la Conferencia Internacional de Aprendizaje Automático

María Victoria Carro representó a UBA IALAB FAIR en la International Conference on Machine Learning (ICML 2025) en Vancouver, uno de los encuentros más prestigiosos del mundo en aprendizaje automático.

IALAB presentó un marco conceptual para la evaluación de capacidades de IA en el Technical AI Governance Workshop, fortaleciendo el intercambio con investigadores de los principales laboratorios globales.

La participación reafirma el compromiso del laboratorio con la investigación de frontera y la colaboración internacional en gobernanza de la IA.

Noviembre 2025

NeurIPS 2025 – Participación en la Conferencia Mundial de IA

IALAB presentará su trabajo en NeurIPS 2025, uno de los eventos científicos más importantes del mundo en inteligencia artificial, que se celebrará en San Diego.

La investigación fue seleccionada para el First Workshop on Multi-Turn Interactions in LLMs, destacando el aporte del equipo en el campo de la interacción y supervisión de grandes modelos de lenguaje.

El grupo también fue reconocido en el Zurich AI Safety Day de ETH Zürich, consolidando su presencia en la comunidad internacional de investigación en AI Safety.

Octubre 2025

Hacia una Agenda Compartida

En el marco del encuentro del Vaticano, IALAB asumió la coordinación de una red internacional orientada a desarrollar una agenda común frente a los desafíos sociales y éticos de la IA.

Participan instituciones como CAF, UMass Boston, Fundar, USP, Notre Dame University, ONU (PNUD), Pontifical Academy of Social Sciences y Columbia University, entre otras.

Esta iniciativa busca articular esfuerzos globales y regionales para consolidar una IA al servicio del bien público.

Octubre 2025

Vaticano – IA para el Bien Común

María Victoria Carro, directora de investigación de IALAB, participó en representación de Juan Gustavo Corvalán en el seminario internacional “Artificial Intelligence: For Good and For Everyone”, organizado por la Pontificia Academia de Ciencias Sociales y la Notre Dame Law School.

El evento reunió a referentes de todo el mundo para debatir sobre ética, gobernanza y justicia social en la era de la inteligencia artificial.

Equipo a cargo

Juan G. Corvalán
María Victoria Carro
Directora de Investigación Académica
Juan G. Corvalán
Denise Mester
Investigadora

Conocé más sobre nuestro trabajo en FAIR

Seguinos en LinkedIn , explorá nuestras publicaciones en Medium  y descubrí nuestros proyectos enGitHub.

Hacia organizaciones centauro "humano-agénticas"

Organizaciones que piensan y actúan a partir de la simbiosis entre los humanos y la IA agéntica.
Sobre NosotrosMetodología IALABHitosPosgrado - IA y DerechoPosgrado - IA y GobiernoPublicacionesNovedadesFAIRAgentesContacto
© 2025 UBA IALAB. Todos los derechos reservados.