OpenAI lanceert nieuw AI-veiligheidsinitiatief

OpenAI heeft een nieuwe online bron, de "Safety Evaluations Hub", met als doel openbaar gegevens en inzichten delen over beveiligingsprestaties van zijn inlichtingenmodellen kunstmatig. Dit initiatief heeft tot doel transparantie te bieden over cruciale aspecten zoals de hallucinatiepercentages van de modellen, de hun neiging om schadelijke inhoud te genereren, de nauwkeurigheid met die worden gevolgd door instructies en hun veerkracht bij pogingen om overtreding. Het bedrijf benadrukt dat deze nieuwe hub vertegenwoordigt een stap voorwaarts in de richting van grotere openheid, in een op een moment dat het met verschillende juridische uitdagingen te maken heeft, inclusief die voor vermeend onrechtmatig gebruik van materiaal auteursrechtelijk beschermd om uw eigen modellen te trainen. De "Safety Evaluations Hub" is ontworpen om de informatie die al beschikbaar is in de systeembladen van OpenAI. Hoewel deze een momentopname bieden van de veiligheidsmaatregelen van een model bij de lancering, de hub is ontworpen om te voorzien voortdurende updates. In een officiële nota heeft OpenAI verklaarde dat hij 'de vooruitgang in de ontwikkeling voor de capaciteit en veiligheid van de modellen meten'. De bedoeling is tweeledig: enerzijds om het begrip van de prestaties te vergemakkelijken van de systemen en aan de andere kant de collectieve inspanningen vergroten om de transparantie in de sector vergroten. Het bedrijf heeft ook de intentie uitgesproken om te werken aan een effectievere communicatie proactief op dit gebied op alle niveaus. Binnenin van de hub kunnen geïnteresseerde gebruikers verschillende speciale secties, waar relevante informatie voor verschillende modellen, van Gpt-4.1 tot de meest recente versies, zoals 4.5.
ansa