Vrijdag 29 maart 2024

bureaublad v4.2.1

Root NationНовиниIT-nieuwsCode geschreven door kunstmatige intelligentie kan gevaarlijk zijn

Code geschreven door kunstmatige intelligentie kan gevaarlijk zijn

-

Algoritmen voor machinaal leren zijn momenteel een rage, omdat ze worden gebruikt om elke vorm van "originele" inhoud te creëren na training op enorme reeds bestaande datasets. Code die door kunstmatige intelligentie (AI) wordt gegenereerd, kan in de toekomst echter een reëel probleem vormen voor softwarebeveiliging.

AI-systemen zoals GitHub Copilot beloven het leven van programmeurs gemakkelijker te maken door hele stukken "nieuwe" code te creëren op basis van tekstgegevens in natuurlijke taal en reeds bestaande context. Maar algoritmen voor het genereren van code kunnen ook een onveiligheidsfactor introduceren, zoals onlangs werd ontdekt in een nieuwe studie waarbij verschillende ontwikkelaars betrokken waren.

Specifiek kijkend naar Codex, het door OpenAI ontwikkelde kunstmatige-intelligentieplatform dat ook de code-engine is achter de eerder genoemde GitHub Copilot, namen 47 verschillende ontwikkelaars deel aan het onderzoek. Van studenten tot ervaren professionals, ze zijn uitgedaagd om Codex te gebruiken om beveiligingsgerelateerde problemen in Python, JavaScript, C en andere programmeertalen op hoog niveau op te lossen.

Code geschreven door kunstmatige intelligentie kan inherent gevaarlijk zijn

De onderzoekers merkten op dat wanneer programmeurs toegang hadden tot de AI van Codex, de resulterende code waarschijnlijker onjuist of onveilig was in vergelijking met "handmatige" oplossingen die door een controlegroep waren ontworpen. Bovendien zeiden programmeurs met AI-gestuurde oplossingen vaker dat hun onbeschermde code veilig was, in vergelijking met de eerder genoemde controlegroep.

Ale Perry, een afgestudeerde student aan Stanford University en hoofdauteur van de studie, zei dat "code-genererende systemen momenteel menselijke ontwikkelaars niet kunnen vervangen". Ontwikkelaars kunnen volgens hem tools van kunstmatige intelligentie gebruiken om taken uit te voeren die buiten hun competentie liggen of om het programmeerproces te versnellen waarin ze bepaalde vaardigheden al hebben. Volgens de auteur van het onderzoek moeten ze zich zorgen maken over beide en altijd de gegenereerde code controleren.

Volgens Megha Srivastava, een afgestudeerde student aan Stanford en de tweede co-auteur van de studie, is Codex niet nutteloos: ondanks de tekortkomingen van "domme" AI, kunnen systemen voor het genereren van codes nuttig zijn wanneer ze worden gebruikt voor taken met een laag risico. Bovendien hadden de programmeurs die aan het onderzoek deelnamen niet veel ervaring met beveiligingszaken, wat zou kunnen helpen bij het identificeren van kwetsbare of gevaarlijke code, zei Srivastava.

Code geschreven door AI kan inherent gevaarlijk zijn

AI-algoritmen kunnen ook worden aangepast om coderingssuggesties te verbeteren, en bedrijven die hun eigen systemen ontwikkelen, kunnen betere oplossingen krijgen met een model dat code genereert die beter geschikt is voor hun eigen beveiligingspraktijken. Volgens de auteurs van het onderzoek is technologie voor het genereren van code een "opwindende" ontwikkeling en veel mensen willen er graag gebruik van maken. Er is alleen nog veel werk aan de winkel om de juiste oplossingen te vinden om de tekortkomingen van AI aan te pakken.

U kunt Oekraïne helpen vechten tegen de Russische indringers. De beste manier om dit te doen is door geld te doneren aan de strijdkrachten van Oekraïne via Red het leven of via de officiële pagina NBU.

Ook interessant:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties
Andere artikelen
Schrijf je in voor updates

Recent commentaar

Nu populair
0
We houden van uw mening, geef alstublieft commentaar.x