Precisa de computação em nuvem? Comece agora mesmo

Grande perda de dinheiro? Escolha sua solução de segurança para LLM com sabedoria.

Akamai Wave Blue

escrito por

Maxim Zavodchik, Alex Marks-Bluth, e Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

escrito por

Maxim Zavodchik

Maxim Zavodchik é gerente sênior de pesquisa de ameaças a aplicativos e APIs na Akamai.

Akamai Wave Blue

escrito por

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

escrito por

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.

 

Os LLMs são uma nova e complexa superfície de ataque que a maioria das empresas não entende completamente.
Os LLMs são uma nova e complexa superfície de ataque que a maioria das empresas não entende completamente.

Comentários editoriais e adicionais por Tricia Howard

Como CISO da empresa, seu trabalho é prever e mitigar as ameaças emergentes à cibersegurança. Os novos objetos (e potencialmente perigosos) deste ano são os LLMs (Large Language Models, grandes modelos de linguagem). No entanto, o acrônimo LLM não significa apenas "grande modelo de linguagem", no entanto, sem uma avaliação adequada da cibersegurança específica para o seu ambiente, o LLM também pode representar uma grande perda de dinheiro. Esses sistemas orientados por IA prometem ganhos de eficiência e inovação, mas sob a superfície dos LLMs estão os riscos de cibersegurança que podem representar um desastre financeiro para sua empresa.

Suas finanças e sua reputação podem estar em risco

É provável que sua empresa tenha começado a usar LLMs. Até mesmo você pode estar usando. É possível que outras lideranças executivas tenham se concentrado na criação do próprio LLM proprietário da empresa para seus clientes e/ou funcionários. Embora os ganhos iniciais possam mostrar melhorias de eficiência e produtividade no curto prazo, os LLMs precisam ser considerados com uma lente de longo prazo. A integração de LLMs à sua empresa sem uma avaliação completa da cibersegurança pode levar a enormes perdas financeiras. Trata-se do tipo de perda que normalmente associamos a violações.

Além disso, pergunte a si mesmo quais seriam as consequências para a reputação se os LLMs gerassem conteúdo nocivo ou ofensivo que afetasse a confiança do cliente e a integridade da marca. Escrevemos esta publicação no blog porque você não é o único que tem dúvidas sobre como navegar em águas turbulentas de IA.

Uma nova superfície de ataque complexa

Os LLMs são uma nova e complexa superfície de ataque que a maioria das organizações não compreende totalmente, o que é de se esperar de qualquer transformação tecnológica importante. Precisamos pensar em nossa superfície de ataque de dentro para fora. De injeções rápidas a exfiltração de dados, os LLMs abrem novos vetores para cibercriminosos sofisticados.

Uma auditoria com foco na segurança dessas novas tecnologias é fundamental. Realizar a devida diligência é uma boa regra geral para qualquer nova tecnologia, mas é particularmente importante para os LLMs. Os defensores estão apenas começando a entender essas potências tecnológicas, e a liberdade dos atacantes em relação à burocracia confere uma grande vantagem a eles. Os atacantes não têm que lidar com acionistas. Se um ataque falhar, eles simplesmente seguem em frente e tentam de outra forma. No entanto, você precisa proteger sua organização na primeira vez.

Qual é o risco financeiro de implementar um LLM sem uma avaliação adequada da cibersegurança?

Vivemos no mundo dos bits e bytes aqui no mundo cibernético, mas as implicações financeiras não podem ser ignoradas. Uma estrutura cibernética é uma ferramenta entre uma série de ferramentas e, para fazer o trabalho bem feito, você precisa usar a ferramenta correta

A maioria das estruturas de avaliação da cibersegurança não foi criada para classificar as perdas financeiras decorrentes de ataques relacionados à IA. Essas estruturas técnicas são apenas isso: estruturas. Elas não são abrangentes. Mesmo que elas pudessem estimar o custo da violação, certamente não mostrariam como uma vulnerabilidade aparentemente pequena poderia se transformar em uma crise multimilionária. Esses riscos continuarão a aumentar à medida que mais LLMs forem incorporados ao nosso cotidiano.

Como os invasores podem manipular os LLMs?

O tempo que um invasor leva para causar um grande impacto é severamente reduzido com os LLMs. Imagine que um invasor manipule seu LLM para revelar dados proprietários ou lançar comandos prejudiciais. Em poucos minutos, sua organização pode estar enfrentando danos financeiros e à reputação em uma escala sem precedentes.

Dados confidenciais, como informações de clientes, propriedade intelectual ou segredos internos, podem vazar por meio de uma vulnerabilidade de LLM. O custo financeiro de lidar com isso é alto: multas regulatórias, notificações de violação e esforços de correção dispendiosos. Considere que 60% de pequenas empresas fecham no prazo de seis meses após uma violação de dados. Pense também nas penalidades do General Data Protection Regulation (GDPR) que podem atingir até 4% da receita global.

Um comando malicioso pode desencadear ações não autorizadas, levando ao desligamento do sistema ou, pior ainda, um invasor pode obter acesso a sistemas críticos. Por quanto tempo seu negócio poderia sobreviver offline? De acordo com a Gartner,o custo médio do tempo de inatividade de TI é de US$ 5.600 por minuto. Multiplique isso por horas, ou mesmo dias, de tempo de inatividade.

Os LLMs podem ser manipulados para gerar conteúdo fraudulento ou executar transações falsas. Em setores altamente regulamentados, como o financeiro, uma única transação fraudulenta pode resultar em multas, perda de contratos e ações judiciais. O custo total? Potencialmente milhões.

O dano à sua reputação é a ameaça mais traiçoeira de todas quando se trata da segurança do LLM. Um único passo em falso, como uma saída inadequada ou uma violação de privacidade, pode causar danos irreparáveis à reputação. O mercado atual está mais competitivo do que nunca, e a confiança do cliente é frágil. Perder essa confiança pode levar à perda permanente de receita, pois os clientes fogem para seus concorrentes.

Os danos à reputação são uma bomba-relógio financeira

Quando um incidente envolvendo LLMs se torna público, não se trata apenas de multas legais ou ações regulatórias. Trata-se de perder a confiança do cliente, mesmo na ausência de uma violação direta ou falha técnica.

Ao contrário das ciberameaças tradicionais, a própria interface baseada em bate-papo dos LLMs representa um sério risco, pois o resultado, uma linguagem humana aparentemente inofensiva, pode se tornar perigosamente tóxica. Sabemos que as palavras podem prejudicar as pessoas, mas essas palavras também podem prejudicar sua tecnologia.

Uma ameaça "mais suave", mas mais insidiosa e imprevisível

Os LLMs representam uma ameaça muito mais insidiosa e imprevisível do que os riscos cibernéticos convencionais com os quais suas equipes de segurança estão equipadas para lidar. Nas ameaças tradicionais, a superfície de ataque geralmente é altamente técnica, definida pela tecnologia do alvo ou por fluxos de aplicativos específicos.

No entanto, com LLMs, o "protocolo" é uma linguagem natural, o que amplia muito a superfície de ataque e permite técnicas de manipulação que vão além das vulnerabilidades tecnológicas clássicas e se aventuram em manipulações semelhantes às humanas. A engenharia social tem sido um método preferido de ataque a seres humanos há anos. Agora, esses mesmos conceitos podem ser usados contra nossa tecnologia.

Em nossa pesquisa sobre vulnerabilidades de injeção imediata em vários conjuntos de dados, um grande número de casos levou a danos à reputação. Isso envolve resultados tóxicos, ofensivos, tendenciosos ou manipulados, bem como respostas não intencionais do LLM que se desviam da verdadeira intenção do desenvolvedor do LLM. Todos nós já vimos o impacto negativo que o comportamento tóxico pode ter sobre os seres humanos, e quanto mais nossa tecnologia espelha nosso cérebro, mais conscientes devemos estar dessas ameaças tecnológicas "mais brandas".

O que você pode fazer para se proteger contra ameaças de LLM?

Os LLMs não são apenas mais uma ferramenta em sua pilha de tecnologia, eles são uma nova e ampla superfície de ataque com riscos exclusivos. Se você não estiver avaliando cuidadosamente esses sistemas quanto às vulnerabilidades de segurança e ao risco financeiro, estará se preparando para um possível desastre. É essencial garantir que qualquer solução de segurança de LLM implantada incorpore quatro aspectos principais:

  1. Controles de segurança rápidos (proteção contra injeção imediata)
  2. Sandboxing e segmentação
  3. Integração de análise comportamental
  4. Trilhas de auditoria rigorosas

Controles de segurança rápidos (proteção contra injeção imediata)

Sua solução de segurança de LLM deve incluir uma filtragem abrangente do conteúdo do prompt, tanto na entrada quanto na saída, para detectar e bloquear tentativas de extração de dados proprietários, juntamente com técnicas defensivas de engenharia de prompt que impeçam a manipulação do LLM. Isso deve incluir restrições de prompt contextual e verificações de validação para proteger contra a execução de comandos prejudiciais.

Sandboxing e segmentação

Ele deve garantir que as interações do LLM sejam colocadas em sandbox e que o ambiente do LLM seja segmentado dos sistemas operacionais críticos para evitar execuções de comandos não autorizados. A microssegmentação é uma parte fundamental de qualquer estrutura Zero Trust, e não há melhor momento do que agora para começar a avançar em direção à Zero Trust, se você ainda não o fez. A capacidade de identificar rapidamente onde está ocorrendo o movimento lateral, e interrompê-lo, pode ser a diferença entre um alerta e um incidente.

Integração de análise comportamental

Seu produto de segurança para LLM deve usar a análise comportamental para estabelecer uma linha de base das interações típicas com o LLM. Ele deve sinalizar e verificar comportamentos atípicos para identificar atividades potencialmente fraudulentas ou não autorizadas.

Para proteger os LLMs, você precisa pensar neles como seres humanos com um poder de processamento absurdamente rápido. Apoie-se em seus engenheiros sociais e "hackers humanos" para obter estratégias de proteção para esses poderosos tecno-humanos.

Trilhas de auditoria rigorosas

A manutenção de registros de auditoria abrangentes das interações do LLM para rastrear entradas, saídas e transações é fundamental para o sucesso da segurança do LLM. Isso também pode ser valioso em investigações pós-incidente para analisar e abordar ações fraudulentas rapidamente. Como você bem sabe: A questão não é se,é quando você sofrerá um ataque, portanto, presumir uma violação é uma grande vantagem para uma solução de segurança do LLM.

E depois?

Os LLMs são uma oportunidade de aprendizado para todos nós, especialmente para aqueles que protegem vidas digitais. Aproveite esse tempo para pesquisar e testar, assim como você fez com qualquer outro grande avanço tecnológico.

A Akamai continuará a usar nossa ampla faixa de visibilidade para descobrir, monitorar e relatar ameaças para a segurança de nossos clientes, colegas de trabalho e a comunidade de segurança em geral. Para acompanhar as nossas descobertas atuais, você pode nos seguir nas redes sociais ou conferir nossa página de pesquisas sobre segurança.



Akamai Wave Blue

escrito por

Maxim Zavodchik, Alex Marks-Bluth, e Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

escrito por

Maxim Zavodchik

Maxim Zavodchik é gerente sênior de pesquisa de ameaças a aplicativos e APIs na Akamai.

Akamai Wave Blue

escrito por

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

escrito por

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.