Quinta-feira, 28 de março de 2024

área de trabalho v4.2.1

Root NationНовиниnotícias de TICódigo escrito por inteligência artificial pode ser perigoso

Código escrito por inteligência artificial pode ser perigoso

-

Os algoritmos de aprendizado de máquina estão na moda agora, pois são usados ​​para criar qualquer tipo de conteúdo "original" após o treinamento em enormes conjuntos de dados pré-existentes. No entanto, o código de geração de inteligência artificial (IA) pode representar um problema real para a segurança do software no futuro.

Sistemas de IA como o GitHub Copilot prometem facilitar a vida dos programadores, criando blocos inteiros de "novos" códigos com base em dados de texto em linguagem natural e contexto pré-existente. Mas os algoritmos de geração de código também podem introduzir um fator de insegurança, como descobriu recentemente um novo estudo envolvendo vários desenvolvedores.

Olhando especificamente para o Codex, a plataforma de inteligência artificial desenvolvida pela OpenAI que também é o mecanismo de código por trás do mencionado GitHub Copilot, 47 desenvolvedores diferentes participaram do estudo. De estudantes a profissionais experientes, eles foram desafiados a usar o Codex para resolver problemas relacionados à segurança em Python, JavaScript, C e outras linguagens de programação de alto nível.

Código escrito por inteligência artificial pode ser inerentemente perigoso

Os pesquisadores observaram que, quando os programadores tinham acesso à IA do Codex, o código resultante tinha maior probabilidade de estar incorreto ou inseguro em comparação com as soluções "manuais" projetadas por um grupo de controle. Além disso, os programadores com soluções baseadas em IA eram mais propensos a dizer que seu código desprotegido era seguro, em comparação com o grupo de controle mencionado anteriormente.

Ale Perry, um estudante de pós-graduação da Universidade de Stanford e principal co-autor do estudo, disse que "os sistemas de geração de código não podem atualmente substituir os desenvolvedores humanos". Segundo ele, os desenvolvedores podem usar ferramentas de inteligência artificial para realizar tarefas fora de sua competência ou para agilizar o processo de programação em que já possuem determinadas habilidades. Segundo o autor do estudo, eles devem se preocupar com ambos e sempre verificar o código gerado.

De acordo com Megha Srivastava, estudante de pós-graduação em Stanford e segunda coautora do estudo, o Codex não é inútil: apesar das deficiências da IA ​​"burra", os sistemas de geração de código podem ser úteis quando usados ​​para tarefas de baixo risco. Além disso, os programadores que participaram do estudo não tinham muita experiência em questões de segurança, o que poderia ajudar na identificação de códigos vulneráveis ​​ou perigosos, disse Srivastava.

Código escrito por IA pode ser inerentemente perigoso

Os algoritmos de IA também podem ser ajustados para melhorar as sugestões de codificação, e as empresas que desenvolvem seus próprios sistemas podem obter soluções melhores com um modelo que gera código mais adequado às suas próprias práticas de segurança. De acordo com os autores do estudo, a tecnologia de geração de código é um desenvolvimento "excitante" e muitas pessoas estão ansiosas para usá-la. Só que ainda há muito trabalho a ser feito para encontrar as soluções certas para lidar com as deficiências da IA.

Você pode ajudar a Ucrânia a lutar contra os invasores russos. A melhor maneira de fazer isso é doar fundos para as Forças Armadas da Ucrânia através Salva vida ou através da página oficial NBU.

Também interessante:

Dzherelotechspot
Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários
Outros artigos
Inscreva-se para atualizações

Comentários recentes

Popular agora
0
Nós amamos seus pensamentos, por favor, comente.x