Portugal atualiza a lei do cibercrime para isentar pesquisadores de segurança – Against Invaders

Dentes

Portugal modificou sua lei de cibercrime para estabelecer um porto seguro legal para pesquisas de boa-fé em segurança e tornar o hacking não punível sob certas condições rigorosas.

Primeira avistada por Daniel Cuthbertum nova disposição no Artigo 8.o-A, intitulado “Atos não puníveis devido ao interesse público em cibersegurança”, oferece uma isenção legal para ações que anteriormente eram classificadas como acesso ilegal a sistemas ou interceptação ilegal de dados.

A exceção se aplica apenas quando pesquisadores de segurança atuam com o objetivo de identificar vulnerabilidades e contribuir para a cibersegurança. As principais condições que devem ser atendidas para estar seguro de responsabilidade criminal são:

  1. A pesquisa deve ter como único objetivo identificar vulnerabilidades não criadas pelo pesquisador e melhorar a cibersegurança por meio da divulgação.
  2. O pesquisador não pode buscar ou receber qualquer benefício econômico além da remuneração profissional normal.
  3. O pesquisador deve imediatamente relatar a vulnerabilidade ao proprietário do sistema, a qualquer controlador de dados relevante e ao CNCS.
  4. As ações devem ser estritamente limitadas ao necessário para detectar a vulnerabilidade e não devem interromper serviços, alterar ou excluir dados, nem causar danos.
  5. A pesquisa não deve envolver nenhum processamento ilegal de dados pessoais sob o GDPR.
  6. O pesquisador não deve usar técnicas proibidas, como ataques DoS ou DDoS, engenharia social, phishing, roubo de senha, alteração intencional de dados, danos ao sistema ou implantação de malware.
  7. Quaisquer dados obtidos durante a pesquisa devem permanecer confidenciais e serem excluídos em até 10 dias após a correção da vulnerabilidade.
  8. Atos realizados com o consentimento do proprietário do sistema também estão isentos de punição, mas quaisquer vulnerabilidades encontradas ainda devem ser reportadas ao CNCS.

O novo artigo define claramente os limites da pesquisa em segurança e, ao mesmo tempo, oferece proteção legal para hackers bem-intencionados.

Em novembro de 2024, o Ministério Federal da Justiça em A Alemanha introduziu um projeto de leique fornecia proteções semelhantes para pesquisadores de segurança que descobrem e reportam falhas de segurança de forma responsável aos fornecedores.

Anteriormente, em maio de 2022, o Departamento de Justiça dos EUA (DOJ) anunciou revisões às suas políticas federais de acusação relacionadas a violações da Lei de Fraude e Abuso de Computadores (CFAA), adicionando uma isenção para pesquisas de “boa-fé”.

Nesses arcabouços legais, a pesquisa em segurança não só é reconhecida, mas também tem espaço seguro para investigar sistemas de forma proativa, descobrir vulnerabilidades e relatá-las sem medo de consequências legais.


Dentes

Destrua silos de IAM como Bitpanda, KnowBe4 e PathAI

Um IAM quebrado não é apenas um problema de TI – o impacto se espalha por toda a sua empresa.

Este guia prático aborda por que as práticas tradicionais de IAM não acompanham as demandas modernas, exemplos de como é um “bom” IAM e uma lista simples para construir uma estratégia escalável.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.