Center for Human-Compatible AI
Het Center for Human-Compatible AI (CHAI) is helemaal in de race om kunstmatige intelligentie te ontwikkelen die echt iets voor de mensheid betekent. Hun missie? De conceptuele en technische knowhow ontwikkelen om AI-onderzoek te sturen naar systemen die echt nuttig zijn voor ons allemaal.
Belangrijkste Highlights
AI Bedreigingen in Verkiezingen
Vergeet die deepfake-video's; de echte AI-bedreiging in deze verkiezingscyclus ligt in tekst- en stemmanipulatie. Jonathan Stray, senior wetenschapper bij CHAI, en Jessica Alter, tech-onderneemster en medeoprichter van Tech for Campaigns, hebben hierover een scherpe opinie geschreven voor The Hill.
Onderzoek naar AI Alignement
De onderzoekers van CHAI, waaronder Micah Carroll, Davis Foote, Anand Siththaranjan, Stuart Russell en Anca Dragan, hebben een belangrijke paper geschreven met de titel "AI Alignement met Veranderende en Beïnvloedbare Beloningsfuncties," die is geaccepteerd op ICML. Dit onderzoek kijkt naar hoe AI-systemen afgestemd kunnen worden op veranderende menselijke waarden en voorkeuren.
Vermijden van Partiële Waarneembaarheid
Een andere belangrijke paper die werd gepresenteerd op de workshop "Finding the Frame" op RLC 2024, onderzoekt de basisconcepten van het detecteren en verminderen van partiële waarneembaarheid in besluitvormingsprocessen. Dit werk richt zich op het meten van de misalignment tussen schattingen van waarde-functies, wat cruciaal is voor het ontwikkelen van betrouwbare AI-systemen.
Sociale Keuze in AI Alignement
Rachel Feedman, een PhD-student bij CHAI, en Wes Holliday, een CHAI-onderzoeker, hebben een paper gepubliceerd op de Internationale Conferentie over Machine Learning, waarin ze benadrukken dat sociale keuze AI-alignement moet sturen bij het omgaan met diverse menselijke feedback.
Blijf Op De Hoogte
Wil je op de hoogte blijven van het laatste nieuws en updates van CHAI? Abonneer je dan op hun mailinglijst!
© UC Berkeley Center for Human-Compatible AI. Design: HTML5 UP