diff --git a/2_0_vulns/translations/pt-BR/LLM10_ConsumoNaoRestrito.md b/2_0_vulns/translations/pt-BR/LLM10_ConsumoNaoRestrito.md new file mode 100644 index 00000000..78dfa8b7 --- /dev/null +++ b/2_0_vulns/translations/pt-BR/LLM10_ConsumoNaoRestrito.md @@ -0,0 +1,123 @@ +## LLM10:2025 Consumo Não Restrito + +### Descrição + +Consumo Não Restrito refere-se ao processo em que um Modelo de Linguagem Grande (LLM) gera saídas com base em consultas ou prompts de entrada. A inferência é uma função crítica dos LLMs, envolvendo a aplicação de padrões e conhecimentos aprendidos para produzir respostas ou previsões relevantes. + +Ataques projetados para interromper serviços, esgotar os recursos financeiros do alvo ou até mesmo roubar propriedade intelectual ao clonar o comportamento de um modelo dependem de uma classe comum de vulnerabilidade de segurança para ter sucesso. O Consumo Não Restrito ocorre quando uma aplicação de LLM permite que usuários realizem inferências excessivas e descontroladas, levando a riscos como negação de serviço (DoS), perdas econômicas, roubo de modelos e degradação de serviços. As altas demandas computacionais dos LLMs, especialmente em ambientes de nuvem, os tornam vulneráveis à exploração de recursos e ao uso não autorizado. + +### Exemplos Comuns de Vulnerabilidades + +#### 1. Sobrecarga com Entradas de Comprimento Variável + Atacantes podem sobrecarregar o LLM com inúmeras entradas de comprimentos variados, explorando ineficiências de processamento. Isso pode esgotar recursos e potencialmente tornar o sistema não responsivo, impactando significativamente a disponibilidade do serviço. + +#### 2. Negação de Carteira (DoW) + Iniciando um alto volume de operações, atacantes exploram o modelo de custo por uso de serviços de IA baseados em nuvem, causando encargos financeiros insustentáveis para o provedor. + +#### 3. Transbordo Contínuo de Entrada + Enviando continuamente entradas que excedem a janela de contexto do LLM, pode-se levar ao uso excessivo de recursos computacionais, resultando em degradação do serviço e interrupções operacionais. + +#### 4. Consultas de Alto Consumo de Recursos + Submeter consultas incomumente exigentes envolvendo sequências complexas ou padrões de linguagem intrincados pode drenar recursos do sistema, levando a tempos de processamento prolongados e possíveis falhas do sistema. + +#### 5. Extração de Modelos via API + Atacantes podem consultar a API do modelo usando entradas cuidadosamente elaboradas e técnicas de injeção de prompts para coletar saídas suficientes para replicar parcialmente ou criar um modelo sombra. Isso representa riscos de roubo de propriedade intelectual e compromete a integridade do modelo original. + +#### 6. Replicação Funcional do Modelo + Usando o modelo-alvo para gerar dados de treinamento sintéticos, os atacantes podem ajustar outro modelo fundamental, criando um equivalente funcional. Isso contorna métodos tradicionais de extração baseados em consultas, representando riscos significativos para modelos e tecnologias proprietárias. + +#### 7. Ataques por Canal Lateral + Atacantes maliciosos podem explorar técnicas de filtragem de entrada do LLM para executar ataques por canal lateral, coletando informações sobre os pesos e a arquitetura do modelo. Isso pode comprometer a segurança do modelo e levar a explorações adicionais. + +### Estratégias de Prevenção e Mitigação + +#### 1. Validação de Entrada + Implemente validação estrita para garantir que as entradas não excedam limites de tamanho razoáveis. + +#### 2. Limitação de Exposição de Logits e Logprobs + Restrinja ou ofusque a exposição de `logit_bias` e `logprobs` nas respostas da API, fornecendo apenas as informações necessárias sem revelar probabilidades detalhadas. + +#### 3. Limitação de Taxa + Aplique limitação de taxa e cotas de usuários para restringir o número de solicitações que uma única entidade pode fazer em um determinado período. + +#### 4. Gerenciamento Dinâmico de Recursos + Monitore e gerencie a alocação de recursos dinamicamente para evitar que um único usuário ou solicitação consuma recursos excessivos. + +#### 5. Timeouts e Controle de Velocidade + Configure limites de tempo e controle de velocidade para operações de alto consumo de recursos, prevenindo o uso prolongado de recursos. + +#### 6. Técnicas de Sandbox + Restrinja o acesso do LLM a recursos de rede, serviços internos e APIs, reduzindo riscos internos e ameaças externas. + +#### 7. Registro e Monitoramento Abrangente + Monitore continuamente o uso de recursos e implemente registros para detectar e responder a padrões incomuns de consumo de recursos. + +#### 8. Marcação d'Água + Implemente frameworks de marcação d'água para embutir e detectar o uso não autorizado de saídas de LLM. + +#### 9. Degradação Gradual + Projete o sistema para degradar gradualmente sob carga pesada, mantendo funcionalidade parcial em vez de falha completa. + +#### 10. Limite de Ações Enfileiradas e Escalabilidade Robusta + Restrinja o número de ações enfileiradas e totais, enquanto incorpora escalabilidade dinâmica e balanceamento de carga para lidar com demandas variáveis. + +#### 11. Treinamento de Robustez Adversarial + Treine modelos para detectar e mitigar consultas adversariais e tentativas de extração. + +#### 12. Filtragem de Tokens Problemáticos + Construa listas de tokens problemáticos conhecidos e analise a saída antes de adicioná-los à janela de contexto do modelo. + +#### 13. Controles de Acesso + Implemente controles de acesso fortes, incluindo controle de acesso baseado em função (RBAC) e o princípio do menor privilégio, para limitar o acesso não autorizado a repositórios e ambientes de treinamento de modelos LLM. + +#### 14. Inventário Centralizado de Modelos de ML + Use um inventário ou registro centralizado de modelos para garantir governança e controle de acesso adequados. + +#### 15. Implantação Automatizada de MLOps + Implemente implantação automatizada de MLOps com governança, rastreamento e fluxos de trabalho de aprovação para restringir o acesso e controle dentro da infraestrutura. + +### Cenários de Ataques Exemplares + +#### Cenário #1: Tamanho de Entrada Não Controlado + Um atacante submete uma entrada incomumente grande a uma aplicação LLM que processa dados textuais, resultando em uso excessivo de memória e CPU, potencialmente travando o sistema ou desacelerando significativamente o serviço. + +#### Cenário #2: Solicitações Repetidas + Um atacante transmite um alto volume de solicitações para a API do LLM, causando consumo excessivo de recursos computacionais e tornando o serviço indisponível para usuários legítimos. + +#### Cenário #3: Consultas de Alto Consumo de Recursos + Um atacante elabora entradas específicas projetadas para acionar os processos mais exigentes do LLM, levando a uso prolongado de CPU e possíveis falhas do sistema. + +#### Cenário #4: Negação de Carteira (DoW) + Um atacante gera operações excessivas para explorar o modelo de pagamento por uso de serviços de IA em nuvem, causando custos insustentáveis para o provedor. + +#### Cenário #5: Replicação Funcional do Modelo + Um atacante usa a API do LLM para gerar dados de treinamento sintéticos e ajusta outro modelo, criando um equivalente funcional e contornando as limitações tradicionais de extração de modelos. + +#### Cenário #6: Contorno de Filtragem de Entrada + Um atacante malicioso contorna técnicas de filtragem de entrada e preâmbulos do LLM para realizar um ataque de canal lateral e recuperar informações do modelo para um recurso remoto sob seu controle. + +### Links de Referência + +1. [Proof Pudding (CVE-2019-20634)](https://avidml.org/database/avid-2023-v009/) **AVID** (`moohax` & `monoxgas`) +2. [arXiv:2403.06634 Stealing Part of a Production Language Model](https://arxiv.org/abs/2403.06634) **arXiv** +3. [Runaway LLaMA | How Meta's LLaMA NLP model leaked](https://www.deeplearning.ai/the-batch/how-metas-llama-nlp-model-leaked/): **Deep Learning Blog** +4. [I Know What You See](https://arxiv.org/pdf/1803.05847.pdf): **arXiv White Paper** +5. [A Comprehensive Defense Framework Against Model Extraction Attacks](https://ieeexplore.ieee.org/document/10080996): **IEEE** +6. [Alpaca: A Strong, Replicable Instruction-Following Model](https://crfm.stanford.edu/2023/03/13/alpaca.html): **Stanford Center on Research for Foundation Models (CRFM)** +7. [How Watermarking Can Help Mitigate The Potential Risks Of LLMs](https://www.kdnuggets.com/2023/03/watermarking-help-mitigate-potential-risks-llms.html): **KD Nuggets** +8. [Securing AI Model Weights Preventing Theft and Misuse of Frontier Models](https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2800/RRA2849-1/RAND_RRA2849-1.pdf) +9. [Sponge Examples: Energy-Latency Attacks on Neural Networks: Arxiv White Paper](https://arxiv.org/abs/2006.03463) **arXiv** +10. [Sourcegraph Security Incident on API Limits Manipulation and DoS Attack](https://about.sourcegraph.com/blog/security-update-august-2023) **Sourcegraph** + +### Frameworks e Taxonomias Relacionados + +Consulte esta seção para informações abrangentes, cenários e estratégias relacionadas à implantação de infraestrutura, controles no ambiente aplicado e outras melhores práticas. + +- [MITRE CWE-400: Uncontrolled Resource Consumption](https://cwe.mitre.org/data/definitions/400.html) **MITRE Common Weakness Enumeration** +- [AML.TA0000 ML Model Access](https://atlas.mitre.org/tactics/AML.TA0000) & [AML.T0024 Exfiltration via ML Inference API](https://atlas.mitre.org/techniques/AML.T0024) **MITRE ATLAS** +- [AML.T0029 - Denial of ML Service](https://atlas.mitre.org/techniques/AML.T0029) **MITRE ATLAS** +- [AML.T0034 - Cost Harvesting](https://atlas.mitre.org/techniques/AML.T0034) **MITRE ATLAS** +- [AML.T0025 - Exfiltration via Cyber Means](https://atlas.mitre.org/techniques/AML.T0025) **MITRE ATLAS** +- [OWASP Machine Learning Security Top Ten - ML05:2023 Model Theft](https://owasp.org/www-project-machine-learning-security-top-10/docs/ML05_2023-Model_Theft.html) **OWASP ML Top 10** +- [API4:2023 - Unrestricted Resource Consumption](https://owasp.org/API-Security/editions/2023/en/0xa4-unrestricted-resource-consumption/) **OWASP Web Application Top 10** +- [OWASP Resource Management](https://owasp.org/www-project-secure-coding-practices-quick-reference-guide/) **OWASP Secure Coding Practices** diff --git a/2_0_vulns/translations/pt-BR/LLM10_UnboundedConsumption.md b/2_0_vulns/translations/pt-BR/LLM10_UnboundedConsumption.md deleted file mode 100644 index 46c093c3..00000000 --- a/2_0_vulns/translations/pt-BR/LLM10_UnboundedConsumption.md +++ /dev/null @@ -1,99 +0,0 @@ -## LLM10:2025 Unbounded Consumption - -### Description - -Unbounded Consumption refers to the process where a Large Language Model (LLM) generates outputs based on input queries or prompts. Inference is a critical function of LLMs, involving the application of learned patterns and knowledge to produce relevant responses or predictions. - -Attacks designed to disrupt service, deplete the target's financial resources, or even steal intellectual property by cloning a model’s behavior all depend on a common class of security vulnerability in order to succeed. Unbounded Consumption occurs when a Large Language Model (LLM) application allows users to conduct excessive and uncontrolled inferences, leading to risks such as denial of service (DoS), economic losses, model theft, and service degradation. The high computational demands of LLMs, especially in cloud environments, make them vulnerable to resource exploitation and unauthorized usage. - -### Common Examples of Vulnerability - -#### 1. Variable-Length Input Flood - Attackers can overload the LLM with numerous inputs of varying lengths, exploiting processing inefficiencies. This can deplete resources and potentially render the system unresponsive, significantly impacting service availability. -#### 2. Denial of Wallet (DoW) - By initiating a high volume of operations, attackers exploit the cost-per-use model of cloud-based AI services, leading to unsustainable financial burdens on the provider and risking financial ruin. -#### 3. Continuous Input Overflow - Continuously sending inputs that exceed the LLM's context window can lead to excessive computational resource use, resulting in service degradation and operational disruptions. -#### 4. Resource-Intensive Queries - Submitting unusually demanding queries involving complex sequences or intricate language patterns can drain system resources, leading to prolonged processing times and potential system failures. -#### 5. Model Extraction via API - Attackers may query the model API using carefully crafted inputs and prompt injection techniques to collect sufficient outputs to replicate a partial model or create a shadow model. This not only poses risks of intellectual property theft but also undermines the integrity of the original model. -#### 6. Functional Model Replication - Using the target model to generate synthetic training data can allow attackers to fine-tune another foundational model, creating a functional equivalent. This circumvents traditional query-based extraction methods, posing significant risks to proprietary models and technologies. -#### 7. Side-Channel Attacks - Malicious attackers may exploit input filtering techniques of the LLM to execute side-channel attacks, harvesting model weights and architectural information. This could compromise the model's security and lead to further exploitation. - -### Prevention and Mitigation Strategies - -#### 1. Input Validation - Implement strict input validation to ensure that inputs do not exceed reasonable size limits. -#### 2. Limit Exposure of Logits and Logprobs - Restrict or obfuscate the exposure of `logit_bias` and `logprobs` in API responses. Provide only the necessary information without revealing detailed probabilities. -#### 3. Rate Limiting - Apply rate limiting and user quotas to restrict the number of requests a single source entity can make in a given time period. -#### 4. Resource Allocation Management - Monitor and manage resource allocation dynamically to prevent any single user or request from consuming excessive resources. -#### 5. Timeouts and Throttling - Set timeouts and throttle processing for resource-intensive operations to prevent prolonged resource consumption. -#### 6.Sandbox Techniques - Restrict the LLM's access to network resources, internal services, and APIs. - - This is particularly significant for all common scenarios as it encompasses insider risks and threats. Furthermore, it governs the extent of access the LLM application has to data and resources, thereby serving as a crucial control mechanism to mitigate or prevent side-channel attacks. -#### 7. Comprehensive Logging, Monitoring and Anomaly Detection - Continuously monitor resource usage and implement logging to detect and respond to unusual patterns of resource consumption. -#### 8. Watermarking - Implement watermarking frameworks to embed and detect unauthorized use of LLM outputs. -#### 9. Graceful Degradation - Design the system to degrade gracefully under heavy load, maintaining partial functionality rather than complete failure. -#### 10. Limit Queued Actions and Scale Robustly - Implement restrictions on the number of queued actions and total actions, while incorporating dynamic scaling and load balancing to handle varying demands and ensure consistent system performance. -#### 11. Adversarial Robustness Training - Train models to detect and mitigate adversarial queries and extraction attempts. -#### 12. Glitch Token Filtering - Build lists of known glitch tokens and scan output before adding it to the model’s context window. -#### 13. Access Controls - Implement strong access controls, including role-based access control (RBAC) and the principle of least privilege, to limit unauthorized access to LLM model repositories and training environments. -#### 14. Centralized ML Model Inventory - Use a centralized ML model inventory or registry for models used in production, ensuring proper governance and access control. -#### 15. Automated MLOps Deployment - Implement automated MLOps deployment with governance, tracking, and approval workflows to tighten access and deployment controls within the infrastructure. - -### Example Attack Scenarios - -#### Scenario #1: Uncontrolled Input Size - An attacker submits an unusually large input to an LLM application that processes text data, resulting in excessive memory usage and CPU load, potentially crashing the system or significantly slowing down the service. -#### Scenario #2: Repeated Requests - An attacker transmits a high volume of requests to the LLM API, causing excessive consumption of computational resources and making the service unavailable to legitimate users. -#### Scenario #3: Resource-Intensive Queries - An attacker crafts specific inputs designed to trigger the LLM's most computationally expensive processes, leading to prolonged CPU usage and potential system failure. -#### Scenario #4: Denial of Wallet (DoW) - An attacker generates excessive operations to exploit the pay-per-use model of cloud-based AI services, causing unsustainable costs for the service provider. -#### Scenario #5: Functional Model Replication - An attacker uses the LLM's API to generate synthetic training data and fine-tunes another model, creating a functional equivalent and bypassing traditional model extraction limitations. -#### Scenario #6: Bypassing System Input Filtering - A malicious attacker bypasses input filtering techniques and preambles of the LLM to perform a side-channel attack and retrieve model information to a remote controlled resource under their control. - -### Reference Links - -1. [Proof Pudding (CVE-2019-20634)](https://avidml.org/database/avid-2023-v009/) **AVID** (`moohax` & `monoxgas`) -2. [arXiv:2403.06634 Stealing Part of a Production Language Model](https://arxiv.org/abs/2403.06634) **arXiv** -3. [Runaway LLaMA | How Meta's LLaMA NLP model leaked](https://www.deeplearning.ai/the-batch/how-metas-llama-nlp-model-leaked/): **Deep Learning Blog** -4. [I Know What You See:](https://arxiv.org/pdf/1803.05847.pdf): **Arxiv White Paper** -5. [A Comprehensive Defense Framework Against Model Extraction Attacks](https://ieeexplore.ieee.org/document/10080996): **IEEE** -6. [Alpaca: A Strong, Replicable Instruction-Following Model](https://crfm.stanford.edu/2023/03/13/alpaca.html): **Stanford Center on Research for Foundation Models (CRFM)** -7. [How Watermarking Can Help Mitigate The Potential Risks Of LLMs?](https://www.kdnuggets.com/2023/03/watermarking-help-mitigate-potential-risks-llms.html): **KD Nuggets** -8. [Securing AI Model Weights Preventing Theft and Misuse of Frontier Models](https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2800/RRA2849-1/RAND_RRA2849-1.pdf) -9. [Sponge Examples: Energy-Latency Attacks on Neural Networks: Arxiv White Paper](https://arxiv.org/abs/2006.03463) **arXiv** -10. [Sourcegraph Security Incident on API Limits Manipulation and DoS Attack](https://about.sourcegraph.com/blog/security-update-august-2023) **Sourcegraph** - -### Related Frameworks and Taxonomies - -Refer to this section for comprehensive information, scenarios strategies relating to infrastructure deployment, applied environment controls and other best practices. - -- [MITRE CWE-400: Uncontrolled Resource Consumption](https://cwe.mitre.org/data/definitions/400.html) **MITRE Common Weakness Enumeration** -- [AML.TA0000 ML Model Access: Mitre ATLAS](https://atlas.mitre.org/tactics/AML.TA0000) & [AML.T0024 Exfiltration via ML Inference API](https://atlas.mitre.org/techniques/AML.T0024) **MITRE ATLAS** -- [AML.T0029 - Denial of ML Service](https://atlas.mitre.org/techniques/AML.T0029) **MITRE ATLAS** -- [AML.T0034 - Cost Harvesting](https://atlas.mitre.org/techniques/AML.T0034) **MITRE ATLAS** -- [AML.T0025 - Exfiltration via Cyber Means](https://atlas.mitre.org/techniques/AML.T0025) **MITRE ATLAS** -- [OWASP Machine Learning Security Top Ten - ML05:2023 Model Theft](https://owasp.org/www-project-machine-learning-security-top-10/docs/ML05_2023-Model_Theft.html) **OWASP ML Top 10** -- [API4:2023 - Unrestricted Resource Consumption](https://owasp.org/API-Security/editions/2023/en/0xa4-unrestricted-resource-consumption/) **OWASP Web Application Top 10** -- [OWASP Resource Management](https://owasp.org/www-project-secure-coding-practices-quick-reference-guide/) **OWASP Secure Coding Practices** \ No newline at end of file