A gigante global de software Microsoft anunciou recentemente o lançamento de uma ferramenta que utiliza a Inteligência Artificial (IA) chamada de Security Copilot. O novo recurso visa a segurança cibernética dos usuários em meio aos ataques recorrentes no ambiente virtual.
A empresa destacou em seu evento inaugural do Microsoft Secure a “nova era da segurança”, moldada pelo poder da IA generativa GPT-4 da OpenAI.
“O Microsoft Security Copilot é o primeiro produto de segurança a permitir que os defensores se movam na velocidade e escala da IA. O Security Copilot combina esse modelo avançado de linguagem ampla (LLM) com um modelo específico de segurança da Microsoft.
Esse modelo específico de segurança, por sua vez, incorpora um conjunto cada vez maior de habilidades específicas de segurança e é informado pela inteligência de ameaças global exclusiva da Microsoft e mais de 65 trilhões de sinais diários. O Security Copilot também oferece segurança de nível empresarial e experiência em conformidade com a privacidade, pois é executado na infraestrutura de hiperescala do Azure”, explicou em nota.
De acordo com a Microsoft, quando o Security Copilot recebe uma solicitação de um profissional de segurança, ele usa o poder do modelo de segurança para implantar habilidades e consultas que maximizam o valor dos recursos mais recentes do modelo de linguagem grande.
“E isso é exclusivo para um caso de uso de segurança. Nosso modelo de treinamento cibernético adiciona um sistema de aprendizado para criar e ajustar novas habilidades. O Security Copilot pode ajudar a detectar o que outras abordagens podem perder e aumentar o trabalho de um analista. Em um incidente típico, esse impulso se traduz em ganhos na qualidade de detecção, velocidade de resposta e capacidade de fortalecer a postura de segurança”, ressaltou.
Vale lembrar que especialistas em inteligência artificial (IA) e líderes do setor solicitaram aos desenvolvedores a paralisação do desenvolvimento de poderosos modelos de IA, de acordo com informações do Financial Review, em 30 de março.
Conforme a publicação, os especialistas do setor fizeram a solicitação ao alertar que estes modelos apresentam “riscos profundos para a sociedade e a humanidade”.