El equipo detrás de AISAR
Organizadores

Iván Arcuschin
Investigador independiente que trabaja en Interpretabilidad Mecanicista y Evaluaciones para AI Safety. Tiene un doctorado en Ciencias de la Computación de la Universidad de Buenos Aires, donde se especializó en generación automática de casos de test para aplicaciones Android. Actualmente es becario de MATS, donde investiga Chain-of-Thought unfaithfulness en LLMs. Anteriormente trabajó en InterpBench, un benchmark para evaluar métodos de interpretabilidad.

Agustín Martinez Suñé
Investigador Postdoctoral en la Universidad de Oxford, trabajando con el grupo OXCAV. Tiene un doctorado en Ciencias de la Computación de la Universidad de Buenos Aires, donde se especializó en métodos formales para el análisis de sistemas distribuidos. Fue PIBBSS Fellow, donde comenzó a explorar la intersección entre métodos formales y aprendizaje automático para avanzar en el desarrollo de sistemas de IA verificablemente seguros.
Consejo Asesor

Sebastían Uchitel
Editor en Jefe de IEEE Transactions on Software Engineering. Profesor en la Universidad de Buenos Aires. Doctorado en Imperial College London. Presidente General de la 38ª Conferencia Internacional de Ingeniería de Software (ICSE).

Luciana Ferrer
Investigadora en el Instituto de Ciencias de la Computación (ICC), CONICET-UBA. Doctorado en Stanford. Miembro del Consejo de la Asociación Internacional de Comunicación del Habla (ISCA).

Ryan Kidd
Co-Director de MATS, Co-Fundador y Miembro del Consejo de LISA, Reotorgante de Manifund, y asesor de AI Safety ANZ, Catalyze Impact y Pivotal Research. Doctorado en Física por la Universidad de Queensland.

James Fox
Senior Science Associate en Schmidt Sciences. Anteriormente Director de la London Initiative for Safe AI (LISA). Doctorado en Ciencias de la Computación sobre AI Safety en la Universidad de Oxford.

Nora Anmman
Especialista Técnica para el programa de Safeguarded AI en la Agencia de Investigación e Innovación Avanzada del Reino Unido (ARIA). Antes de ARIA, cofundó y dirigió PIBBSS, una iniciativa de investigación que explora enfoques interdisciplinarios para el riesgo, la gobernanza y la seguridad de la IA.