Root NationNachrichtenIT-NeuigkeitenVon künstlicher Intelligenz geschriebener Code kann gefährlich sein

Von künstlicher Intelligenz geschriebener Code kann gefährlich sein

-

Algorithmen für maschinelles Lernen sind derzeit in aller Munde, da sie verwendet werden, um jede Art von „originellen“ Inhalten zu erstellen, nachdem sie mit riesigen, bereits vorhandenen Datensätzen trainiert wurden. Allerdings könnte die Generierung von Code durch künstliche Intelligenz (KI) in Zukunft ein echtes Problem für die Softwaresicherheit darstellen.

KI-Systeme wie GitHub Copilot versprechen, das Leben von Programmierern zu erleichtern, indem sie ganze Teile „neuen“ Codes auf der Grundlage von Textdaten in natürlicher Sprache und bereits vorhandenem Kontext erstellen. Aber Algorithmen zur Codegenerierung können auch einen Unsicherheitsfaktor einführen, wie eine neue Studie mit mehreren Entwicklern kürzlich herausfand.

Mit Blick auf Codex, die von OpenAI entwickelte Plattform für künstliche Intelligenz, die auch die Code-Engine hinter dem oben erwähnten GitHub Copilot ist, nahmen 47 verschiedene Entwickler an der Studie teil. Von Studenten bis hin zu erfahrenen Fachleuten wurden sie herausgefordert, Codex zu verwenden, um sicherheitsbezogene Probleme in Python, JavaScript, C und anderen höheren Programmiersprachen zu lösen.

Von künstlicher Intelligenz geschriebener Code kann von Natur aus gefährlich sein

Die Forscher stellten fest, dass der resultierende Code, wenn Programmierer Zugriff auf die KI von Codex hatten, mit größerer Wahrscheinlichkeit falsch oder unsicher war als bei „manuellen“ Lösungen, die von einer Kontrollgruppe entwickelt wurden. Darüber hinaus gaben Programmierer mit KI-gestützten Lösungen im Vergleich zur oben genannten Kontrollgruppe eher an, dass ihr ungeschützter Code sicher sei.

Ale Perry, Doktorand an der Stanford University und leitender Co-Autor der Studie, sagte, dass „codegenerierende Systeme derzeit menschliche Entwickler nicht ersetzen können“. Ihm zufolge können Entwickler Tools der künstlichen Intelligenz verwenden, um Aufgaben auszuführen, die außerhalb ihrer Kompetenz liegen, oder um den Programmierprozess zu beschleunigen, in dem sie bereits über bestimmte Fähigkeiten verfügen. Laut dem Autor der Studie sollten sie sich um beides kümmern und den generierten Code immer überprüfen.

Laut Megha Srivastava, Doktorandin in Stanford und zweite Co-Autorin der Studie, ist Codex nicht nutzlos: Trotz der Mängel der „dummen“ KI können Codegenerierungssysteme nützlich sein, wenn sie für Aufgaben mit geringem Risiko verwendet werden. Darüber hinaus hätten die Programmierer, die an der Studie teilgenommen hätten, nicht viel Erfahrung in Sicherheitsfragen, was bei der Identifizierung von angreifbarem oder gefährlichem Code hilfreich sein könnte, sagte Srivastava.

Von KI geschriebener Code kann von Natur aus gefährlich sein

KI-Algorithmen können auch optimiert werden, um Codierungsvorschläge zu verbessern, und Unternehmen, die ihre eigenen Systeme entwickeln, können bessere Lösungen mit einem Modell erhalten, das Code generiert, der besser für ihre eigenen Sicherheitspraktiken geeignet ist. Laut den Autoren der Studie ist die Technologie der Codegenerierung eine „aufregende“ Entwicklung und viele Menschen sind begierig darauf, sie zu nutzen. Es gibt nur noch viel zu tun, um die richtigen Lösungen zu finden, um die Mängel der KI zu beheben.

Sie können der Ukraine helfen, gegen die russischen Invasoren zu kämpfen. Der beste Weg, dies zu tun, besteht darin, Gelder an die Streitkräfte der Ukraine zu spenden Das Leben retten oder über die offizielle Seite NBU.

Auch interessant:

QuelleTechspot
Anmelden
Benachrichtigen Sie über
Gast

0 Ihre Nachricht
Eingebettete Bewertungen
Alle Kommentare anzeigen
Andere Artikel
Abonnieren Sie Updates
Beliebt jetzt