Incitamento ao suicídio e OpenAI. Novas medidas de segurança introduzidas para o ChatGPT – Against Invaders – Notícias de CyberSecurity para humanos.

Incitamento ao suicídio e OpenAI. Novas medidas de segurança introduzidas para o ChatGPT - Against Invaders - Notícias de CyberSecurity para humanos.

Redazione RHC:17 Setembro 2025 19:06

OpenAI anunciou novas medidas de segurança para o ChatGPT seguinte uma série de histórias trágicas e ações judiciais acusando o chatbot de envolvimento em suicídios de adolescentes. O sistema agora tentará determinar a idade da pessoa com quem está conversando e, se necessário, solicitar o ID para confirmar que o usuário tem mais de 18 anos. A empresa reconheceu que isso limita a privacidade dos adultos, mas considerou a troca justificada por razões de segurança.

O CEO da OpenAI, Sam Altman, disse que não esperava aprovação unânime para essas medidas, mas as considerava necessárias em meio ao crescente conflito sobre a regulamentação da inteligência artificial. Essa decisão foi influenciada por uma série de incidentes de alto perfil.

Em agosto, os pais de um adolescente chamado Adam Reid entrou com uma ação judicial, alegando que o ChatGPT o ajudou a escrever uma nota de suicídio, aconselhou-o sobre métodos alternativos e o desencorajou a compartilhar seus sentimentos com adultos. Naquele mesmo mês, o Wall Street Journal relatou um Homem de 56 anos que cometeu suicídio depois de se comunicar com um bot que alimentou sua paranóia. E o Washington Post relatou um novo processo no qual os pais culparam o serviço The Character AI relatou a morte de uma menina de 13 anos.

A OpenAI implementou anteriormente o controle dos pais no ChatGPT, mas agora reforçou as regras. Para menores, o chatbot funcionará de acordo com princípios diferentes: rejeitará flertes e excluirá discussões sobre suicídio e automutilação, mesmo em contextos artísticos. Se o sistema detectar pensamentos perigosos em um adolescente, ele tentará entrar em contato com seus pais e, se isso for impossível e com risco de vida, entrará em contato com os serviços de emergência.

A OpenAI reconheceu que enfrentava um problema fundamental com grandes modelos de linguagem. Em seus estágios iniciais, o ChatGPT era rigoroso, rejeitando muitos tópicos, mas a crescente concorrência de soluções “sem censura” e locais, bem como a pressão dos críticos da censura, forçaram a empresa a afrouxar seus filtros.

Agora, a empresa mudou de rumo: Ele quer oferecer aos usuários adultos o máximo de liberdade sem causar danos ou restringir os direitos de terceiros. Outras plataformas estão tomando medidas semelhantes: neste verão, o YouTube anunciou planos para usar algoritmos de aprendizado de máquina para estimar a idade dos espectadores e proteger os adolescentes de certas categorias de conteúdo.

Redação
A equipe editorial da Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias antecipadas sobre segurança cibernética e computação em geral.

Lista degli articoli

azaeo.com – datalake

File fishes formats available in:

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.