29년 2024월 XNUMX일 금요일

데스크탑 v4.2.1

Root NationНовиниIT 뉴스인공 지능이 작성한 코드는 위험할 수 있습니다.

인공 지능이 작성한 코드는 위험할 수 있습니다.

-

기계 학습 알고리즘은 이미 존재하는 거대한 데이터 세트에 대한 교육 후 모든 종류의 "원본" 콘텐츠를 생성하는 데 사용되기 때문에 현재 대세입니다. 그러나 인공 지능(AI) 생성 코드는 향후 소프트웨어 보안에 실질적인 문제를 일으킬 수 있습니다.

GitHub Copilot과 같은 AI 시스템은 자연어 텍스트 데이터와 기존 컨텍스트를 기반으로 "새로운" 코드 전체를 생성하여 프로그래머의 삶을 더 쉽게 만들 것을 약속합니다. 그러나 코드 생성 알고리즘은 최근 여러 개발자가 참여한 새로운 연구에서 발견된 것처럼 불안정한 요소를 도입할 수도 있습니다.

앞서 언급한 GitHub Copilot의 코드 엔진이기도 한 OpenAI가 개발한 인공 지능 플랫폼인 Codex를 구체적으로 살펴보면 47명의 개발자가 연구에 참여했습니다. 학생부터 숙련된 전문가까지 Codex를 사용하여 Python, JavaScript, C 및 기타 고급 프로그래밍 언어의 보안 관련 문제를 해결하는 데 어려움을 겪었습니다.

인공 지능이 작성한 코드는 본질적으로 위험할 수 있습니다.

연구원들은 프로그래머가 Codex의 AI에 액세스할 수 있을 때 결과 코드가 제어 그룹이 설계한 "수동" 솔루션에 비해 정확하지 않거나 안전하지 않을 가능성이 더 높다고 지적했습니다. 또한 AI 기반 솔루션을 사용하는 프로그래머는 앞서 언급한 통제 그룹에 비해 보호되지 않은 코드가 안전하다고 말할 가능성이 더 컸습니다.

스탠포드 대학의 대학원생이자 이 연구의 공동 저자인 Ale Perry는 "코드 생성 시스템은 현재 인간 개발자를 대체할 수 없습니다."라고 말했습니다. 그에 따르면 개발자는 인공 지능 도구를 사용하여 자신의 능력 밖의 작업을 수행하거나 이미 특정 기술을 보유한 프로그래밍 프로세스의 속도를 높일 수 있습니다. 연구 작성자에 따르면 두 가지 모두에 관심을 갖고 항상 생성된 코드를 확인해야 합니다.

스탠포드 대학원생이자 이 연구의 두 번째 공동 저자인 Megha Srivastava에 따르면 Codex는 쓸모가 없습니다. "멍청한" AI의 단점에도 불구하고 코드 생성 시스템은 위험도가 낮은 작업에 사용될 때 유용할 수 있습니다. 또한 연구에 참여한 프로그래머는 보안 문제에 대한 경험이 많지 않아 취약하거나 위험한 코드를 식별하는 데 도움이 될 수 있다고 Srivastava는 말했습니다.

AI가 작성한 코드는 본질적으로 위험할 수 있습니다.

또한 AI 알고리즘을 조정하여 코딩 제안을 개선할 수 있으며 자체 시스템을 개발하는 회사는 자체 보안 관행에 더 적합한 코드를 생성하는 모델을 통해 더 나은 솔루션을 얻을 수 있습니다. 이 연구의 저자에 따르면 코드 생성 기술은 "흥미로운" 발전이며 많은 사람들이 그것을 사용하기를 열망하고 있습니다. AI의 단점을 해결하기 위한 올바른 솔루션을 찾는 데 아직 해야 할 일이 많다는 것뿐입니다.

당신은 우크라이나가 러시아 침략자에 맞서 싸울 수 있도록 도울 수 있습니다. 이를 수행하는 가장 좋은 방법은 다음을 통해 우크라이나 군대에 기금을 기부하는 것입니다. 세이브라이프 또는 공식 페이지를 통해 NBU.

또한 흥미로운:

가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기
기타 기사
업데이트 구독

최근 댓글

지금 인기
0
우리는 여러분의 생각을 좋아합니다. 댓글을 달아주세요.x