Entre a IA e o medo, a Skynet ensina: “Vamos construir bunkers antes de lançar a AGI”.

Cabos submarinos: Japão declara guerra aos fornecedores chineses

Redazione RHC:12 Outubro 2025 09:06

A citação, “Com certeza vamos construir um bunker antes de lançarmos a AGI” que inspirou o artigo, foi atribuído a um líder do Vale do Silício, embora não esteja claro quem exatamente ele quis dizer com “nós”.

A frase perfeitamente capturada O paradoxo de nossos tempos , e a ironia é evidente: Aqueles que estão avançando na inteligência artificial mais sofisticada do mundo são os mesmos que estão terrivelmente preocupados com suas repercussões.

Enquanto eles continuam suas pesquisas, eles estão simultaneamente elaborando estratégias de fuga. A situação é semelhante à de Alguém que constrói uma barragem sabendo que ela acabará falhando, mas em vez de reforçá-la, prefere comprar um barco.

Os bunkers dos super-ricos e o medo da AGI

Em uma reunião de verão em 2023, Ilya Sutskever, cofundador da OpenAI e a mente brilhante por trás do ChatGPT, fez uma declaração intrigante Aos seus pesquisadores: “Com certeza vamos construir um bunker antes de lançar a AGI” … e então ” Claro, será opcional entrar ou não no bunker.

Sua declaração enigmática foi interrompida por um pesquisador que perguntou o que significava. Sutskever seguiu com uma resposta que deixou todos atordoados: ” Antes de lançarmos o AGI, definitivamente construiremos um bunker.”

De acordo com o fundador do LinkedIn, Reid Hoffman, uma parcela significativa, pelo menos 50%, dos indivíduos extremamente ricos do Vale do Silício já compraram o que é chamado “Seguro do Juízo Final.”

O fundador da Amazon, Jeff Bezos, comprou dois Mansões de US$ 147 milhões em Indian Creek Island, na Flórida. O bilionário da Oracle, Larry Ellison, também comprou uma propriedade na ilha havaiana de Lanai. O cofundador do PayPal, Peter Thiel, escolheu a Nova Zelândia. O fundador do Alibaba, Jack Ma, o cineasta James Cameron e o guru financeiro William Foley construíram bunkers pós-apocalípticos em locais remotos.

Dama Wendy Hall, professor de ciência da computação da Universidade de Southampton, discorda das previsões mais sombrias. Ela argumenta que, De acordo com a comunidade científica, a tecnologia de inteligência artificial é significativamente avançada, mas ainda está longe da inteligência humana . Para alcançar uma verdadeira AGI, seriam necessários mais progressos significativos. É, portanto, dramático demais. Os prazos, em particular, são desconcertantes.

Mas vamos analisar a questão com calma.

Declarações sobre Inteligência Artificial Geral

Quando surgirá a AGI, inteligência artificial geral, comparável aos humanos em sua amplitude de capacidades? Os otimistas dizem que será muito em breve. CEO da OpenAI, Sam Altman disse em dezembro de 2024 que isso aconteceria “Mais cedo do que a maioria das pessoas pensa.” Co-fundador da DeepMind Sir Demis Hassabis estima o prazo entre cinco e dez anos. O fundador da Anthropic, Dario Amodei, prefere falar sobre “IA poderosa” e prevê que isso possa acontecer já em 2026.

Os céticos rebatem isso “Os marcos estão sendo constantemente movidos”: de acordo com Dame Wendy Hall, professora da Universidade de Southampton, tudo depende de quem você pergunta. A tecnologia é impressionante, mas ainda está longe da inteligência humana. O CTO da Cognizant, Babak Hojat, concorda: Várias inovações fundamentais são necessárias primeiro. E não espere que a AGI surja “instantaneamente”: não é uma questão de um único dia, mas um longo caminho, com dezenas de empresas buscando diferentes abordagens.

Parte dessa empolgação é alimentada pela ideia do próximo estágio: AGI, ou superinteligência, que superará os humanos. Já em 1958, o matemático húngaro-americano John von Neumann foi creditado com a primeira formulação do ” singularidade ,” o ponto além do qual o ritmo e a natureza do desenvolvimento do computador escapam à compreensão humana.

Em seu livro 2024 Genesis, Eric Schmidt, Craig Mundie e o falecido Henry Kissinger discutir uma tecnologia superpoderosa que toma decisões e controla de forma tão eficaz que os humanos são gradualmente relcontrole inquisitivo. Em sua lógica, a questão não é “se”, mas “quando”.

O que a AGI trará: benefícios e medos

Os proponentes pintam um quadro deslumbrante. A inteligência artificial (AGI) supostamente ajudará a encontrar curas para doenças mortais, superar a crise climática e desbloquear fontes virtualmente ilimitadas de energia limpa. Elon Musk falou de um possível era de “alta renda universal”, na qual a IA se tornará tão acessível que todos terão seus próprios “R2-D2 e C-3PO”.

Em sua visão, Todos terão assistência médica, moradia, melhor transporte e abundância sustentável. Mas há uma desvantagem nesse sonho. Podemos impedir que tal sistema seja abusado por terroristas ou que concluamos automaticamente que nós mesmos somos o maior problema do planeta?

Tim Berners-Lee, o criador da World Wide Web, adverte que Se uma máquina é mais inteligente que um humano, ela deve ser contida e, se necessário, “desligada”. Os governos estão tentando construir barreiras de proteção. Nos Estados Unidos, uma ordem executiva presidencial foi emitida em 2023 exigindo que certas empresas compartilhassem os resultados dos testes de segurança com as autoridades, embora algumas disposições tenham sido posteriormente enfraquecidas como “impedindo a inovação”.

Há dois anos, o Reino Unido lançou o Instituto de Segurança da IA, uma organização governamental que estuda os riscos de modelos avançados. Nesse contexto, os super-ricos estão discutindo “Seguro do Apocalipse” – de casas na borda do mundo para abrigos privados – embora mesmo aqui, o O fator humano está atrapalhando tudo.

Ainda estamos longe disso

Alguns até consideram toda a discussão equivocada. Cambridge professor Neil Lawrence chama o próprio conceito de AGI de absurdo como “um veículo universal artificial”. O meio de transporte certo sempre depende do contexto: as pessoas voam para o Quênia, dirigem para a universidade e caminham até o refeitório. Não existe e nunca haverá um carro de tamanho único: por que esperar o oposto da IA?

Lawrence acredita que falar sobre a AGI desvia a atenção das mudanças reais já em andamento: pela primeira vez, pessoas comuns pode falar com uma máquina e entender o que ela realmente significa. Isso está mudando a vida cotidiana, o que significa que nós precisam trabalhar duro para garantir que a tecnologia funcione para o benefício de seus usuários.

Os sistemas atuais são treinados em grandes conjuntos de dados e são excelentes no reconhecimento de padrões, desde marcadores tumorais em imagens para a provável próxima palavra em uma frase . Mas eles não os “ouvem”, não importa o quão convincentes suas respostas pareçam.

De acordo com Babak Hojat, existem maneiras “inteligentes” de fazer grandes modelos de linguagem parecerem ter memória e recursos de aprendizado, mas esses truques estão longe de ser humanos . IV.AI CEO da , Vince Lynch, adverte que Afirmações altissonantes sobre inteligência artificial são simplesmente um golpe publicitário . Se você construir “a coisa mais inteligente do mundo”, o dinheiro virá. Na prática, a jornada não é medida em dois anos: requer enorme poder de computação, imensa criatividade humana e tentativa e erro sem fim.

O cérebro humano é ainda mais poderoso

No entanto, em alguns aspectos, as máquinas já nos superam na amplitude de suas aplicações. A IA generativa pode ir da história medieval a equações complexas em um minuto. Mesmo os desenvolvedores nem sempre entendem por que o modelo responde de uma determinada maneira, e algumas empresas relatam melhorias em seus sistemas. A biologia permanece na vanguarda: o cérebro humano contém aproximadamente 86 bilhões de neurônios e aproximadamente 600 trilhões de sinapses, incomparavelmente mais do que arquiteturas artificiais. O cérebro não precisa de pausas entre as interações; reestrutura continuamente sua visão do mundo .

Se você disser a alguém que a vida foi descoberta em um exoplaneta, eles imediatamente a integrarão em sua visão da realidade. Um modelo linguístico “sabe” disso apenas na medida em que você continua repetindo . Falta de LLMs metacognição , a capacidade de Esteja ciente de seu próprio conhecimento. Os humanos o têm, e muitas vezes é descrito como consciência . É um elemento fundamental da inteligência que ainda não foi replicado em laboratório.

Por trás das previsões e advertências grandiosas, ao que parece, está uma verdade simples: A inteligência artificial já está transformando a vida cotidiana e os processos de negócios, e falar sobre inteligência artificial “real” é conveniente para arrecadadores de fundos e definidores de agenda.

Se e quando uma singularidade ocorrerá permanece uma questão em aberto. Mas a qualidade das ferramentas que criamos agora – sua segurança, transparência e utilidade para as pessoas – depende de muito mais do que debates sobre silos e datas.

Redação
A equipe editorial da Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias antecipadas sobre segurança cibernética e computação em geral.

Lista degli articoli

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.