
Redazione RHC:8 Novembro 2025 17:40
As últimas declarações de Sam Altman, CEO da OpenAI, sobre o progresso de inteligência artificial (IA) não são muito encorajadoras, como ele afirmou recentemente que ele está preocupado com “o impacto da IA nos empregos” e também deixou claro que não estaremos seguros mesmo em um bunker “se a IA ficar fora de controle” .
Mas isso não é tudo, porque em uma entrevista recente, o CEO da OpenAI afirmou sem rodeios que devemos nos preocupar com o futuro que a inteligência artificial trará: “Acho que algo ruim vai acontecer com a inteligência artificial.”
Conforme relatado por um artigo da Investopedia, há um mês Sam Altman participou de uma entrevista para o podcast de vídeo a16z da empresa de capital de risco Andreessen Horowitz e aproveitou a oportunidade para dizer que ele espera que coisas ruins aconteçam por causa da inteligência artificial: “Espero que coisas realmente ruins não aconteçam por causa da tecnologia.”
Como você pode ver na entrevista abaixo, Altman estava se referindo ao Sora, uma ferramenta de geração de vídeo lançada no final de setembro pela OpenAI que rapidamente se tornou o aplicativo mais baixado na App Store nos Estados Unidos . Isso levou a uma onda de deepfakes criado usando esse modelo, que inundou as mídias sociais com vídeos com figuras como Martin Luther King Jr. e outras figuras públicas, incluindo o próprio Altman .
De fato, Altman apareceu nesses vídeos realização de diversas atividades criminosas , como você pode ver em esta história do Instagram . Mas isso não é tudo, pois Altman também afirmou que ferramentas como Sora precisam de controles para evitar essa tecnologia de ser usada para fins maliciosos : “Muito em breve, o mundo terá que lidar com modelos de vídeo incríveis que podem se passar por qualquer pessoa ou mostrar o que quiserem.”
Da mesma forma, o criador do ChatGPT defendeu que, em vez de aperfeiçoar este tipo de tecnologia à porta fechada, a sociedade e a inteligência artificial deveriam colaborar para “co-evoluir” e “Você não pode simplesmente deixar tudo para o fim .”
De acordo com Altman, o que devemos fazer é dar às pessoas uma exposição precoce a esse tipo de tecnologia, para que as comunidades possam Estabelecer normas e barreiras antes que essas ferramentas se tornem ainda mais poderosas. Ele também argumenta que, se fizermos isso, estaremos mais bem preparados quando Os modelos de geração de vídeo baseados em IA tornam-se ainda mais avançados do que os atuais.
O aviso de Sam Altman não era apenas sobre vídeos falsos, mas também sobre o fato de que muitos de nós tendemos a “terceirizar” nossas decisões de Algoritmos que poucas pessoas entendem: “Ainda acho que haverá momentos estranhos ou assustadores.”
Além disso, Altman também explicou que o fato de que a inteligência artificial ainda não causou um evento catastrófico “ não significa que nunca será” e que “bilhões de pessoas falando com o mesmo cérebro” pode acabar criando “coisas estranhas em escala social” .
“Acho que, como sociedade, vamos desenvolver barreiras em torno desse fenômeno” ele disse. Finalmente, embora seja algo que afeta a todos nós, Altman opõe-se a uma regulamentação rigorosa desta tecnologia porque ele diz isso “A maioria dos regulamentos provavelmente tem muitas desvantagens” e que o ideal seria reger “Testes de segurança muito completos” com esses novos modelos, que ele chamou “Extremamente sobre-humano.”
Redação
A equipe editorial da Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias antecipadas sobre segurança cibernética e computação em geral.