Center for Human-Compatible AI: Bouwt Uitzonderlijke AI voor de Mensheid

Center for Human

Ontdek hoe het Center for Human-Compatible AI AI-systemen ontwikkelt die menselijk welzijn en ethische overwegingen vooropstellen.

Bezoek Website
Center for Human-Compatible AI: Bouwt Uitzonderlijke AI voor de Mensheid

Center for Human-Compatible AI

Het Center for Human-Compatible AI (CHAI) is helemaal in de race om kunstmatige intelligentie te ontwikkelen die echt iets voor de mensheid betekent. Hun missie? De conceptuele en technische knowhow ontwikkelen om AI-onderzoek te sturen naar systemen die echt nuttig zijn voor ons allemaal.

Belangrijkste Highlights

AI Bedreigingen in Verkiezingen

Vergeet die deepfake-video's; de echte AI-bedreiging in deze verkiezingscyclus ligt in tekst- en stemmanipulatie. Jonathan Stray, senior wetenschapper bij CHAI, en Jessica Alter, tech-onderneemster en medeoprichter van Tech for Campaigns, hebben hierover een scherpe opinie geschreven voor The Hill.

Onderzoek naar AI Alignement

De onderzoekers van CHAI, waaronder Micah Carroll, Davis Foote, Anand Siththaranjan, Stuart Russell en Anca Dragan, hebben een belangrijke paper geschreven met de titel "AI Alignement met Veranderende en Beïnvloedbare Beloningsfuncties," die is geaccepteerd op ICML. Dit onderzoek kijkt naar hoe AI-systemen afgestemd kunnen worden op veranderende menselijke waarden en voorkeuren.

Vermijden van Partiële Waarneembaarheid

Een andere belangrijke paper die werd gepresenteerd op de workshop "Finding the Frame" op RLC 2024, onderzoekt de basisconcepten van het detecteren en verminderen van partiële waarneembaarheid in besluitvormingsprocessen. Dit werk richt zich op het meten van de misalignment tussen schattingen van waarde-functies, wat cruciaal is voor het ontwikkelen van betrouwbare AI-systemen.

Sociale Keuze in AI Alignement

Rachel Feedman, een PhD-student bij CHAI, en Wes Holliday, een CHAI-onderzoeker, hebben een paper gepubliceerd op de Internationale Conferentie over Machine Learning, waarin ze benadrukken dat sociale keuze AI-alignement moet sturen bij het omgaan met diverse menselijke feedback.

Blijf Op De Hoogte

Wil je op de hoogte blijven van het laatste nieuws en updates van CHAI? Abonneer je dan op hun mailinglijst!

© UC Berkeley Center for Human-Compatible AI. Design: HTML5 UP

Beste Alternatieven voor Center for Human