OpenAIGoogle, Anthropic en andere generatieve AI-bedrijven blijven hun technologie verbeteren en steeds betere grote taalmodellen produceren. Om een gezamenlijke aanpak te creëren om de veiligheid van deze modellen onafhankelijk te beoordelen, hebben de Britse en Amerikaanse regeringen een Memorandum of Understanding ondertekend.
Het Britse AI Security Institute en zijn Amerikaanse tegenhanger, waar vice-president Kamala Harris eerder over sprak, maar die nog moet worden gelanceerd, zullen gezamenlijk testsuites ontwikkelen om de risico's te beoordelen en de veiligheid van 'state-of-the-art AI-modellen' te garanderen.
Als onderdeel van het partnerschap zullen de instituten technische kennis, informatie en zelfs personeel delen, en een van hun oorspronkelijke doelstellingen lijkt het gezamenlijk testen van een openbaar beschikbaar model. De Britse wetenschapssecretaris Michelle Donelan, die de overeenkomst ondertekende, zei dat ze “echt snel moeten handelen”, aangezien er naar verwachting binnen een jaar een nieuwe generatie modellen zal verschijnen. AI, die "de spelregels volledig kunnen veranderen", en momenteel is het niet zeker waartoe ze in staat zullen zijn.
https://twitter.com/SecRaimondo/status/1774972138740408585
Dit partnerschap is de eerste bilaterale overeenkomst over AI-beveiliging ter wereld, hoewel zowel de VS als het VK van plan zijn in de toekomst de krachten te bundelen met andere landen. "AI is de bepalende technologie van onze generatie. Dit partnerschap zal het werk van onze beide instellingen over het hele spectrum van risico's versnellen, zowel voor onze nationale veiligheid als voor de samenleving als geheel, zei de Amerikaanse minister van Handel Gina Raimondo. - Ons partnerschap laat duidelijk zien dat we niet voor deze problemen weglopen. Door onze samenwerking zullen onze instituten een beter inzicht krijgen in AI-systemen, robuustere beoordelingen uitvoeren en rigoureuzere aanbevelingen doen.”
Terwijl dit specifieke partnerschap zich richt op testen en evaluatie, ontwikkelen overheden over de hele wereld ook regelgeving om AI-instrumenten onder controle te houden. In maart ondertekende het Witte Huis een uitvoerend bevel om ervoor te zorgen dat federale agentschappen alleen die AI-instrumenten gebruiken die “de rechten en veiligheid van het Amerikaanse volk niet bedreigen.”
Voortbouwend op de Britse AI Safety Summit heb ik zojuist een baanbrekende overeenkomst met de VS getekend – een cruciaal moment voor het waarborgen van de mondiale AI-veiligheid.
Zowel de potentiële voordelen als risico's van AI zijn mondiaal van omvang, dus dit werk zal ons helpen AI veilig te benutten en levens over de hele wereld te verbeteren🌍 pic.twitter.com/CSkzUbpyOw
— Michelle Donelan Kamerlid (@michelledonelan) 2 april 2024
Voor dit Europees parlement heeft een grootschalige wet goedgekeurd over de regulering van AI. Het verbiedt “AI die menselijk gedrag manipuleert of menselijke kwetsbaarheden uitbuit”, “biometrische categorisatiesystemen gebaseerd op gevoelige kenmerken” en het “ongerichte scannen” van gezichten op camerabeelden en internet om databases voor gezichtsherkenning te creëren. Bovendien moeten ‘deepfakes’ en andere door AI gegenereerde afbeeldingen, video’s en audio volgens de regels dienovereenkomstig worden gelabeld.
En onlangs legde het Huis van Afgevaardigden van het Amerikaanse Congres een verbod op op het gebruik van een AI-assistent door congrespersoneel Microsoft Copilot vanwege veiligheidsredenen. Eerder werd een soortgelijk verbod opgelegd aan ChatGPT.
Lees ook: