Em fevereiro, a companhia investigou problemas no chatbot Copilot, que gerava respostas erradas, implementando medidas de segurança e inteligência artificial personalizados.
A Microsoft está investindo cada vez mais em tecnologias de IA para garantir a segurança dos usuários. Recentemente, a empresa anunciou a inclusão de novos protocolos de segurança no Azure AI Studio, visando proteger as informações dos usuários contra possíveis ataques cibernéticos.
Com a evolução constante da inteligência artificial, é fundamental que as empresas estejam sempre um passo à frente na proteção dos dados dos seus clientes. A Microsoft tem se destacado nesse quesito, implementando medidas de segurança avançadas para garantir a confiabilidade de seus chatbots e assistentes virtuais IA.
Novos recursos de segurança com foco em IA
As novas ferramentas da Microsoft incluem ‘escudos de alerta‘, que têm como objetivo detectar e bloquear tentativas deliberadas de ataques de ‘injeção de prompt’ em modelos de inteligência artificial. Essas defesas foram projetadas para lidar com situações em que hackers inserem instruções maliciosas nos dados de treinamento de um modelo, levando-o a realizar ações não autorizadas.
A empresa também está abordando as ‘injeções indiretas de prompt‘, um tipo de ataque em que hackers conseguem induzir um modelo de IA a comportamentos indesejados, como roubar informações ou sequestrar sistemas. Essas são consideradas ameaças únicas e desafiadoras, de acordo com Sarah Bird, diretora de produtos de IA da Microsoft.
Proteções contra ataques e respostas erradas
A Microsoft está lançando novos recursos para alertar os usuários quando um modelo de IA gera respostas incorretas ou cria informações falsas. O objetivo é aumentar a confiança nos sistemas generativos da empresa, que são amplamente utilizados por consumidores e empresas.
Em fevereiro, a Microsoft investigou incidentes envolvendo o Copilot, seu chatbot, que estava gerando respostas estranhas. Segundo Bird, esses incidentes ocorreram devido a tentativas de usuários de enganar o sistema. A empresa está atenta a essas práticas e trabalhando para fortalecer a segurança dos modelos de linguagem subjacentes à IA generativa.
Compromisso com a segurança da IA
Bird enfatiza a importância de implantar inteligência artificial com segurança e construir proteções eficazes nos modelos de linguagem. Ela ressalta que, apesar dos avanços na tecnologia, é fundamental não depender exclusivamente dos modelos, pois ainda existem vulnerabilidades inerentes.
Os esforços da Microsoft e da OpenAI visam garantir a segurança e confiabilidade dos sistemas de IA, mesmo diante de novos desafios e técnicas usadas por hackers. A empresa está comprometida em proteger seus clientes e fortalecer a confiança nas suas ferramentas inovadoras.
Fonte: @ Info Money
Comentários sobre este artigo