Root NationニュースITニュース人工知能によって書かれたコードは危険な場合がある

人工知能によって書かれたコードは危険な場合がある

-

機械学習アルゴリズムは、巨大な既存のデータセットでトレーニングした後、あらゆる種類の「オリジナル」コンテンツを作成するために使用されるため、現在大流行しています。 しかし、人工知能 (AI) が生成するコードは、将来的にソフトウェアのセキュリティに深刻な問題をもたらす可能性があります。

GitHub Copilot のような AI システムは、自然言語のテキスト データと既存のコンテキストに基づいて「新しい」コードのチャンク全体を作成することで、プログラマーの生活を楽にすることを約束します。 しかし、最近数人の開発者が参加した新しい研究で発見されたように、コード生成アルゴリズムはセキュリティ上の要因をもたらす可能性もあります。

特に、前述の GitHub Copilot の背後にあるコード エンジンでもある OpenAI によって開発された人工知能プラットフォームである Codex を見ると、47 人の異なる開発者が調査に参加しました。 学生から経験豊富な専門家まで、Codex を使用して、Python、JavaScript、C、およびその他の高レベル プログラミング言語のセキュリティ関連の問題を解決するという課題に取り組んできました。

人工知能によって書かれたコードは本質的に危険である可能性があります

プログラマーが Codex の AI にアクセスした場合、結果として得られるコードは、コントロール グループによって設計された「手動」ソリューションと比較して、不正確または安全でない可能性が高いと研究者は指摘しました。 さらに、AI を利用したソリューションを使用するプログラマーは、前述の対照群と比較して、保護されていないコードが安全であると言う傾向がありました。

スタンフォード大学の大学院生で、この研究の共著者である Ale Perry 氏は、「現在、コード生成システムは人間の開発者に取って代わることはできない」と述べています。 彼によると、開発者は人工知能ツールを使用して、能力を超えたタスクを実行したり、すでに特定のスキルを持っているプログラミングプロセスをスピードアップしたりできます. 調査の著者によると、彼らは両方を考慮し、生成されたコードを常にチェックする必要があります。

スタンフォード大学の大学院生で、この研究の 番目の共著者である Mega Srivastava 氏によると、Codex は役に立たないわけではありません。「愚かな」AI の欠点にもかかわらず、コード生成システムはリスクの低いタスクに使用する場合に役立ちます。 さらに、調査に参加したプログラマーはセキュリティ問題についてあまり経験がなかったため、脆弱または危険なコードを特定するのに役立つ可能性がある、と Srivastava 氏は述べています。

AI によって記述されたコードは本質的に危険である可能性があります

AI アルゴリズムを微調整してコーディングの提案を改善することもできます。独自のシステムを開発している企業は、独自のセキュリティ プラクティスにより適したコードを生成するモデルを使用して、より優れたソリューションを得ることができます。 研究の著者によると、コード生成技術は「エキサイティングな」開発であり、多くの人々がそれを使いたがっています。 ただ、AI の欠点に対処する適切なソリューションを見つけるには、まだやるべきことがたくさんあります。

ウクライナがロシアの侵略者と戦うのを助けることができます。 これを行う最善の方法は、ウクライナ軍に資金を寄付することです。 セーブライフ または公式ページから NBU.

また興味深い:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示