Centro de IA Compatible con el Ser Humano: Innovaciones para la Humanidad

Center for Human

Descubre cómo el Centro de IA Compatible con el Ser Humano está transformando la investigación en IA para crear sistemas beneficiosos para la humanidad.

Visitar Sitio
Centro de IA Compatible con el Ser Humano: Innovaciones para la Humanidad

Centro de IA Compatible con el Ser Humano

El Centro de IA Compatible con el Ser Humano (CHAI) está a la vanguardia de la investigación en inteligencia artificial, enfocándose en desarrollar sistemas que sean beneficiosos para la humanidad. Su misión es reorientar la investigación en IA hacia sistemas que sean probadamente beneficiosos, lo que es más relevante que nunca en el contexto actual.

Amenazas de IA en las Elecciones

En un artículo de opinión para The Hill, Jonathan Stray, científico senior en CHAI, y Jessica Alter, cofundadora de Tech for Campaigns, discuten los riesgos que la IA presenta en el ciclo electoral actual. A diferencia de los videos deepfake, el verdadero peligro radica en el uso de texto y voz generados por IA, que pueden influir en la opinión pública de maneras insidiosas.

Alineación de IA con Funciones de Recompensa Cambiantes

Recientemente, investigadores de CHAI, incluyendo a Micah Carroll y Stuart Russell, publicaron un artículo titulado "Alineación de IA con Funciones de Recompensa Cambiantes e Influenciables", que fue aceptado en la Conferencia Internacional sobre Aprendizaje Automático (ICML). Este trabajo es crucial para entender cómo las funciones de recompensa pueden ser manipuladas y cómo esto afecta la alineación de la IA con los valores humanos.

Mitigación de la Observabilidad Parcial

Otro estudio importante presentado en el taller "Finding the Frame" en RLC 2024 investiga conceptos fundamentales relacionados con la observabilidad parcial en procesos de decisión. Este trabajo se centra en medir la desalineación entre las estimaciones de la función de valor, lo que es esencial para el desarrollo de sistemas de IA más robustos.

La Elección Social y la Alineación de IA

Rachel Feedman, estudiante de doctorado en CHAI, y Wes Holliday, afiliado de CHAI, publicaron un artículo en la ICML que argumenta que la elección social debería guiar la alineación de la IA al tratar con la retroalimentación diversa de los humanos. Este enfoque es vital para asegurar que los sistemas de IA reflejen una variedad de perspectivas y valores.

Suscríbete a Nuestro Boletín

Si deseas recibir nuestras noticias y actualizaciones, te invitamos a suscribirte a nuestra lista de correo. Mantente informado sobre los últimos avances en IA y cómo están impactando a la sociedad.

© UC Berkeley Center for Human-Compatible AI. Diseño: HTML5 UP

Mejores Alternativas a Center for Human