Quer apoiar meu projeto de divulgação de noticias?
Agora é possivel Veja a noticia completa em: https://www.bleepingcomputer.com/news/security/github-copilot-update-stops-ai-model-from-revealing-secrets/
Fonte: https://www.bleepingcomputer.com
Achou esse artigo interessante? Siga canalfsociety em
Instagram,
Facebook,
Telegram,
Twitter,
App Boletim Tec e
App Mr Robot Sticker para ler mais conteúdo exclusivo que postamos. #samirnews #samir #news #boletimtec #a #atualização #do #github #copilot #impede #que #o #modelo #de #ia #revele #segredos
O GitHub atualizou o modelo AI do Copilot, um assistente de programação que gera recomendações de código-fonte e funções em tempo real no Visual Studio, e diz que agora é mais seguro e poderoso.
A empresa diz que o novo modelo de IA, que será lançado aos usuários esta semana, oferece sugestões de melhor qualidade em um tempo menor, melhorando ainda mais a eficiência dos desenvolvedores de software ao aumentar a taxa de aceitação.
O CoPilot apresentará um novo paradigma chamado "Fill-In-the-Middle", que usa uma biblioteca de sufixos de código conhecidos e deixa uma lacuna para a ferramenta de IA preencher, obtendo melhor relevância e coerência com o restante do código do projeto.
Além disso, o GitHub atualizou o cliente do CoPilot para reduzir sugestões indesejadas em 4,5% para melhorar as taxas gerais de aceitação de código.
"Quando lançamos o GitHub Copilot for Individuals pela primeira vez em junho de 2022, mais de 27% dos arquivos de código dos desenvolvedores, em média, foram gerados pelo GitHub Copilot", disse o diretor sênior de gerenciamento de produtos Shuyin Zhao.
"Hoje, o GitHub Copilot está por trás de uma média de 46% do código de um desenvolvedor em todas as linguagens de programação - e em Java, esse número salta para 61%."
Taxa de sugestões aceitas do CoPilot ao longo do tempo (GitHub)
Sugestões mais seguras
Uma das melhorias de destaque nesta atualização do CoPilot é a introdução de um novo sistema de filtragem de vulnerabilidades de segurança que ajudará a identificar e bloquear sugestões inseguras, como credenciais codificadas, injeções de caminho e injeções de SQL.
"O novo sistema aproveita os LLMs (grandes modelos de linguagem) para aproximar o comportamento das ferramentas de análise estática - e como o GitHub Copilot executa modelos avançados de IA em poderosos recursos de computação, é incrivelmente rápido e pode até detectar padrões vulneráveis em fragmentos incompletos de código", Zhao disse.
“Isso significa que padrões de codificação inseguros são rapidamente bloqueados e substituídos por sugestões alternativas”.
A empresa de software diz que o CoPilot pode gerar segredos como chaves, credenciais e senhas vistas nos dados de treinamento em novas strings. No entanto, eles não podem ser usados, pois são totalmente fictícios e serão bloqueados pelo novo sistema de filtragem.
Exemplo do sistema de bloqueio em tempo real (GitHub)
O aparecimento desses segredos nas sugestões de código do CoPilot causou críticas ferozes da comunidade de desenvolvimento de software, com muitos acusando a Microsoft de usar grandes conjuntos de dados disponíveis publicamente para treinar seus modelos de IA com pouca atenção à segurança, incluindo até mesmo conjuntos que contêm segredos por engano.
Ao bloquear sugestões inseguras no editor em tempo real, o GitHub também pode fornecer alguma resistência contra ataques de conjuntos de dados envenenados com o objetivo de treinar secretamente assistentes de IA para fazer sugestões contendo cargas maliciosas.
No momento, os LLMs do CoPilot ainda estão sendo treinados para distinguir entre padrões de código vulneráveis e não vulneráveis, portanto, espera-se que o desempenho do modelo de IA nessa frente melhore gradualmente em um futuro próximo.
Postar um comentário