Nos últimos anos, os Modelos de Linguagem de Grande Escala (LLMs) evoluíram de projetos experimentais para pilares em aplicações de negócios, atendimento ao cliente, automação e cibersegurança.
Contudo, junto com esse crescimento, surgiram riscos inéditos que exigem atenção. Além de mapear, o relatório OWASP Top 10 for LLM Applications 2025 entrega para o mercado as principais ameaças, vulnerabilidades e práticas de mitigação específicas para LLMs – o que nos dá o entendimento necessário sobre quais caminhos seguir nos próximos meses – confira!
1. Prompt injection 2.0
Essa ameaça se sofisticou. Agora, ataques multimodais (que combinam imagens, texto e dados externos) ampliam o vetor de ataque, dificultando a detecção. Empresas precisarão investir em sandboxing avançado e monitoramento semântico para proteger seus LLMs.
2. Exposição de informações sensíveis
Do vazamento de dados confidenciais à infraestrutura, as aplicações de políticas zero trust e controle granular de permissões se tornarão primordiais.
3. Segurança em supply chain
Com o crescimento do uso de modelos pré-treinados e adaptações LoRA, aumenta o risco de backdoors e tampering. Por isso, a necessidade de uma saída robusta, como o AI SBOMs (Software Bill of Materials) para rastrearmos a integridade desses modelos.
4. Poisoning de Dados e Modelos
Ataques de data poisoning e backdoors embutidos em datasets públicos vão forçar a adoção de ferramentas de validação de dados e auditoria contínua. Modelos terão seus red teams em ciclos cada vez menores – isso significa que passarão por simulações de ataques cibernéticos feitos por um grupo de profissionais em períodos menores.
5. Excessive Agency: Autonomia com Responsabilidade
Com a tendência de LLMs atuarem como agentes autônomos, o controle de permissões e o conceito de Least Privilege Execution serão críticos para evitar ações indesejadas e reduzir riscos operacionais.
Mitigação e boas práticas recomendadas
Para atenuar os riscos associados às aplicações de LLM, será essencial adotar uma abordagem integrada que combine monitoramento, validação e controles rigorosos.
O uso da RAG Triad — que avalia a relevância do contexto, a fundamentação das respostas e a pertinência das interações — se tornará uma prática recomendada para garantir a qualidade das saídas geradas pelos modelos.
Além disso, a aplicação de filtragem semântica em entradas e saídas ajudará a reduzir significativamente a exposição a injeções de prompts e manipulações de conteúdo.
A implementação de controles humanos em processos críticos (human-in-the-loop) também será indispensável para evitar que decisões de alto impacto sejam tomadas sem supervisão.
Por fim, garantir a integridade dos modelos através de APIs de atestação e verificações contínuas permitirá uma maior transparência e confiança nas soluções baseadas em LLM, blindando a cadeia de fornecimento contra ameaças emergentes.
Oportunidades para o mercado
Soluções voltadas para monitoramento de APIs expostas a LLMs, governança de fluxos de dados em integrações AI-driven, e compliance e privacidade em automação baseadas em LLMs vão se tornar extremamente relevantes no mercado.
As aplicações de LLM seguirão em alta, mas com uma nova mentalidade de segurança by design. O relatório da OWASP mostra que a integração de boas práticas de cibersegurança será tão importante quanto a inovação técnica.