Información del programa

Descripción general

AISAR es un programa presencial, part-time, pensado y diseñado para dar a estudiantes una oportunidad de incursionar en AI Safety. Más concretamente, se espera que cada participante trabaje en un proyecto de investigación en un tema específico de AI Safety durante 6 meses. El compromiso de tiempo esperado para los becarios es de 20 horas por semana.


Perfil de los becarios

En esta primera edición del programa, buscamos estudiantes avanzados o recientemente graduados de las carreras de Licenciatura en Ciencias de la Computación o Licenciatura en Ciencia de Datos de Exactas-UBA.


Serán consideradas positivamente las siguientes características:


  • Sólida formación académica que evidencie un profundo conocimiento en su área de estudio en relación a la temática de la beca.
  • Experiencia previa o marcado interés en participar en proyectos de investigación vinculados a la Inteligencia Artificial (IA) y/o el Aprendizaje Automático.
  • Capacidad para comprender e incorporar rápidamente conceptos técnicos avanzados del estado del arte en IA.
  • Conocimientos previos o fuerte motivación por contribuir a AI Safety, en particular a la mitigación de riesgos catastróficos asociados con el desarrollo y despliegue de sistemas de IA autónomos avanzados.
  • Demostrar fortalezas técnicas en disciplinas de las Cs. de la Computación o Cs. de Datos que, con la orientación adecuada, puedan contribuir a la investigación o el desarrollo de enfoques orientados a la reducción de riesgos en sistemas de IA.
  • Tener un manejo de inglés adecuado para la lectura de artículos académicos y para participar de seminarios con investigadores internacionales en AI Safety.

Si bien el perfil está orientado principalmente a estudiantes avanzados o graduados recientes en Computación y Datos, también estamos abiertos a considerar otras disciplinas afines en casos excepcionales. Si este es tu caso, te pedimos que incluyas una nota contándonos por qué creés que tu perfil es adecuado para esta convocatoria.


Temas de investigación

Los temas de cada proyecto de investigación se seleccionarán en base a la disponibilidad de mentores y a la alineación con las agendas de AI Safety, algunas de las cuales son:

  • Interpretabilidad: Desarrollo de métodos para entender y explicar el comportamiento interno y externo de los modelos de IA, ya sea a través de ingeniería inversa de su arquitectura, análisis de metas o valores implícitos en su comportamiento, evaluación de la fidelidad de sus procesos de razonamiento, o estudio de sus sesgos inductivos.
  • Evaluaciones: Construir pruebas sistemáticas, tanto conductuales como mecanísticas, para detectar capacidades peligrosas, propensiones dañinas y la robustez de las medidas de seguridad, creando “puertas” basadas en evidencia que determinen si y cómo un modelo puede escalarse o desplegarse.
  • Supervisión / Control escalable: Diseñar técnicas como la descomposición de tareas, la supervisión de procesos, el debate, la amplificación iterada y las “evaluaciones de control” adversarias que permitan a los humanos (o a IAs más débiles) monitorear y restringir modelos mucho más capaces, incluso cuando éstos intentan eludir las salvaguardas.
  • Gobernanza: Estudio y diseño de políticas, regulaciones, instituciones, y mecanismos técnicos y de coordinación para evitar o morigerar dinámicas dañinas en el desarrollo de IA avanzada (como ser trampas multipolares, maldición unilateralista, proliferación de capacidades peligrosas, etc.)
  • Agencia de la IA: Desarrollar una teoría matemática más profunda de la agencia, la optimización, la corregibilidad (capacidad de un agente para aceptar correcciones externas sin resistirlas ni intentar evitarlas) y la toma de decisiones embebida, a fin de sustentar las estrategias de alineamiento en principios válidos incluso para agentes radicalmente superhumanos.
  • IA segura por diseño: Se refiere a sistemas de IA diseñados para operar de manera segura, con garantías formales y verificables de que evitarán resultados perjudiciales. Asegura que la IA cumpla consistentemente con los estándares de seguridad a través de una verificación rigurosa, en lugar de depender únicamente de pruebas.

También se tendrá como referencia las agendas y proyectos de AI Safety definidos en otros programas o instituciones de financiamiento:


Preguntas frecuentes

¿Hay financiamiento para los becarios?

Sí, los becarios recibirán un estipendio mensual de $600 USD, además de un fondo mensual para gastos de compute de $500 USD.

¿Cuál es la duración del programa?

El programa tiene una duración de 6 meses.

¿Qué compromiso de tiempo tiene el becario?

Los becarios deben dedicar al menos 20 horas semanales al programa.

¿Cuál es el cronograma del programa?
El cronograma tentativo para la primera edición del programa a ocurrir durante 2025 es:
  • 14 al 28 de Mayo (inclusivo): Postulación de becarios
  • 29 de Mayo al 26 de Junio: Proceso de selección de los 6 becarios que participaran del programa
  • 27 de Junio: Notificación de aceptación a los becarios seleccionados
  • 30 de Junio: Inicio del programa
  • 30 de Julio: Entrega de plan de investigación para el proyecto
  • Última semana de Septiembre: Entrega de informe de medio término
  • 1ra semana de Diciembre: Workshop interno con presentaciones de los becarios
  • 2da semana de Diciembre: Entrega de informe final del programa
¿En qué consiste el proceso de selección de los becarios?

En esta primera edición, seleccionaremos hasta 6 becarios para formar parte del programa. El proceso de selección se basará en:

  • Análisis del CV y carta de presentación de los candidatos: grado de avance en la carrera, promedio de la carrera (sin aplazos y sin CBC), experiencias previas laborales o de investigación, conocimiento de Machine Learning, conocimiento de agendas de AI Safety, conocimiento de Inglés, premios recibidos, etc.
  • Examen remoto de programación en Python (90 minutos)
  • Examen remoto de lectura de papers de AI Safety (120 minutos)
  • Entrevista con los organizadores del programa (en caso de pasar un primer filtro)
  • Proceso de matching entre becarios y mentores (en caso de pasar a la ronda final)
¿Qué eventos se van a llevar a cabo durante el programa?

Durante el programa, se llevarán a cabo los siguientes eventos:

  • Reunión de inicio del programa
  • Actividades de integración y networking
  • Reuniones de seguimiento de proyectos con mentores y research managers
  • Seminarios con investigadores internacionales
  • Seminario sobre formas de financiar proyectos de AI Safety (LTFF, Open Philanthropy, etc.)
  • Workshop interno con presentaciones de los becarios
  • Presentación final de los resultados
¿Cuáles son los entregables del programa?

En el marco del programa, se considera prioritario sistematizar los avances de los proyectos de investigación; por ello, se solicitará a los becarios que:

  • Completar dentro del primer mes un plan investigación tentativo para el proyecto.
  • Completar dentro del primer mes el curso de AI Safety Fundamentals de Blue Dot.
  • Entregar un informe de avance al medio término.
  • Realizar una presentación final en un workshop interno del programa, mostrando los resultados obtenidos para el proyecto.
  • Entregar un informe al final del programa.
¿Tengo que tener un proyecto pensado para presentarme?

No, no hace falta tener un proyecto pensado para presentarse.