Assim como as redes sociais, a IA exige escolhas difíceis – Schneier em segurança – Against Invaders

Em seu livro de 2020, “Política Futura,” O advogado britânico Jamie Susskind escreveu que a questão dominante do século XX era: “Quanto da nossa vida coletiva deve ser determinado pelo Estado, e o que deve ficar para o mercado e a sociedade civil?” Mas nas primeiras décadas deste século, Susskind sugeriu que enfrentássemos uma questão diferente: “Até que ponto nossas vidas devem ser dirigidas e controladas por sistemas digitais poderosos — e em quais termos?”

A inteligência artificial (IA) nos força a enfrentar essa questão. É uma tecnologia que, em teoria, amplifica o poder de seus usuários: um gerente, profissional de marketing, ativista político ou usuário opinativo da internet pode emitir uma única instrução e ver sua mensagem — seja qual for — instantaneamente escrita, personalizada e propagada por e-mail, texto, redes sociais ou outros canais para milhares de pessoas dentro da organização, ou milhões ao redor do mundo. Também nos permite individualizar solicitações de doações políticas, elaborar uma queixa em uma posição política bem articulada ou adaptar um argumento persuasivo para um grupo de identidade, ou até mesmo para uma única pessoa.

Mas, mesmo oferecendo potencial infinito, a IA é uma tecnologia que — assim como o Estado — dá aos outros novos poderes para controlar nossas vidas e experiências.

Já vimos isso se destacar antes. Empresas de redes sociais criaram Os mesmos tipos de promessas 20 anos atrás: comunicação instantânea permitindo conexão individual em larga escala. Avançando para hoje, a tecnologia que deveria dar poder e influência aos indivíduos acabou nos controlando. Hoje as redes sociais dominam nossa Tempo e atenção, Ataca nossa saúde mental, e — junto com suas grandes empresas controladoras de tecnologia — captura um fração insondável da nossa economia, mesmo enquanto representa riscos para nossa democracia.

A novidade e o potencial das redes sociais estavam tão presentes naquela época quanto estão para a IA hoje, o que deve nos deixar cautelosos quanto às suas possíveis consequências prejudiciais para a sociedade e a democracia. Tememos legitimamente vozes artificiais e realidades fabricadas que abafam pessoas reais na internet: nas redes sociais, em salas de bate-papo, em todos os lugares onde possamos tentar nos conectar com outros.

Não precisa ser assim. Além desses riscos evidentes, a IA tem Potencial legítimo transformar tanto a vida cotidiana quanto a governança democrática em Maneiras positivas. No nosso novo livro, “Reprogramando a Democracia, registramos exemplos de democracias ao redor do mundo usando IA para tornar a fiscalização regulatória mais eficiente, capturar fraudes fiscais, acelerar processos judiciais, sintetizar contribuições dos eleitores para os legislativos e muito mais. Como as democracias distribuem o poder entre instituições e indivíduos, fazer as escolhas certas sobre como moldar a IA e seus usos exige tanto clareza quanto alinhamento em toda a sociedade.

Para isso, destacamos quatro escolhas fundamentais enfrentadas por atores privados e públicos. Essas escolhas são semelhantes às que enfrentamos durante o surgimento das redes sociais, e olhando para trás podemos ver que tomamos as decisões erradas naquela época. Nossas escolhas coletivas em 2025 — escolhas feitas por CEOs de tecnologia, políticos e cidadãos — podem ditar se a IA será aplicada para fins positivos e pró-democráticos, ou prejudiciais e destrutivos civicamente.

Uma Escolha para o Executivo e o Judiciário: Jogando Pelas Regras

A Comissão Federal de Eleições (FEC) chama de fraude quando um candidato contrata um ator para se passar por seu oponente. Mais recentemente, eles tinham que decidir se fazer o mesmo com um deepfake de IA torna tudo aceitável. (Eles concluíram que não.) Embora, neste caso, a FEC tenha tomado a decisão certa, este é apenas um exemplo de como as IAs poderiam burlar leis que regem as pessoas.

Da mesma forma, os tribunais precisam decidir se e quando é aceitável que uma IA reutilize materiais criativos sem compensação ou atribuição, o que pode constituir plágio ou violação de direitos autorais se for cometido por um ser humano. (O Os resultados judiciais até agora são mistos.) Os tribunais também estão decidindo se as corporações são responsáveis por cumprir promessas feitas por representantes de atendimento ao cliente de IA. (No caso de Air Canada, a resposta foi sim, e as seguradoras têm Começou a cobrir a responsabilidade.)

Empresas de mídia social enfrentaram muitos de tele arrisca o mesmo décadas atrás e foram em grande parte protegidos pela combinação da Seção 230 da Lei de Comunicações de 1994 e do porto seguro oferecido pela Lei de Direitos Autorais do Milênio Digital de 1998. Mesmo na ausência de uma ação do Congresso para fortalecer ou reforçar essa lei, a Comissão Federal de Comunicações (FCC) e a Suprema Corte poderiam tomar medidas para intensificar seus efeitos e esclarecer quais humanos são responsáveis quando a tecnologia é usada, na prática, para contornar a legislação existente.

Uma Escolha para o Congresso: Privacidade

À medida que produtos habilitados por IA pedem cada vez mais aos americanos que compartilhem ainda mais informações pessoais—seu “contexto“—para usar serviços digitais como assistentes pessoais, proteger os interesses do consumidor americano deve ser uma causa bipartidária no Congresso.

Já se passaram quase 10 anos desde que a Europa adotou a abrangente Regulamentação de Privacidade de Dados. Hoje, empresas americanas fazem grandes esforços para limitar a coleta de dados, obter consentimento para o uso dos dados e mantê-los confidenciais sob penalidades financeiras significativas — mas apenas para seus clientes e usuários na UE.

De qualquer forma, uma década depois os EUA Ainda assim, não conseguiu avançar sobre quaisquer tentativas sérias de legislação federal abrangente de privacidade escrita para o século XXI, e há pouquíssimas proteções de privacidade de dados Isso se aplica a fatias estreitas da economia e da população. Essa inação ocorre apesar de escândalo após escândalo sobre o uso irresponsável e prejudicial de nossos dados pessoais pelas grandes empresas de tecnologia: Perfilamento de dados da Oracle, Facebook e Cambridge Analytica, Google ignorando pedidos de exclusão de privacidade de dados, e muitos outros.

A privacidade é apenas um dos lados das obrigações que as empresas de IA devem ter em relação aos nossos dados; O outro lado é a portabilidade — ou seja, a capacidade dos indivíduos de escolher migrar e compartilhar seus dados entre ferramentas de consumo e sistemas tecnológicos. Na medida em que conhecer nosso contexto pessoal realmente possibilita serviços de IA melhores e mais personalizados, é fundamental que os consumidores tenham a capacidade de extrair e migrar seu contexto pessoal entre soluções de IA. Os consumidores devem possuir seus próprios dados, e com essa propriedade deve vir o controle explícito sobre com quem e quais plataformas eles são compartilhados, além de serem retidos. Os reguladores poderiam Essa interoperabilidade exige. Caso contrário, os usuários ficam presos e carecem de liberdade de escolha entre soluções de IA concorrentes — assim como o tempo investido para construir seguidores em uma rede social prendeu muitos usuários a essas plataformas.

Uma Escolha para os Estados: Taxando Empresas de IA

Tornou-se cada vez mais claro que as redes sociais não são uma praça na utopidade de um fórum público aberto e protegido onde ideias políticas são distribuídas e debatidas de boa-fé. Se é que alguma coisa, as redes sociais endureceram e degradaram nosso discurso público. Enquanto isso, o único ato do Congresso destinado a conter substancialmente os efeitos sociais e políticos das plataformas de mídia social — a Banimento do TikTok, que visava proteger o público americano da influência chinesa e da coleta de dados, citando-a como uma ameaça à segurança nacional — é uma ameaça que parece nem sequer reconhecer mais.

Enquanto o Congresso vacila, a regulamentação nos EUA está acontecendo em nível estadual. Vários estados têm Acesso limitado para crianças e adolescentes para as redes sociais. Com o Congresso tendo rejeitado—por enquanto—um Moratória federal ameaçada sobre a regulação estadual da IA, A Califórnia aprovou uma nova lista de regulamentações de IA após apaziguar um Investida de lobby De opositores da indústria. Talvez o mais interessante seja Maryland recentemente tornou-se o primeiro no país para cobrar impostos sobre empresas de plataformas de publicidade digital.

Os estados agora enfrentam a escolha de aplicar um imposto reparador semelhante às empresas de IA para recuperar uma fração dos custos que externalizam ao público para financiar os serviços públicos afetados. Legisladores estaduais preocupados com a possível perda de empregos, trapaças nas escolas e danos a pessoas com problemas de saúde mental causados pela IA têm opções para combatê-la. Eles poderiam extrair o financiamento necessário para mitigar esses danos a Apoio aos serviços públicos—fortalecendo programas de treinamento profissional e emprego público, escolas públicas, serviços de saúde pública, até mesmo mídia pública e tecnologialogia.

Uma escolha para todos nós: Quais produtos usamos e como?

Um momento crucial na linha do tempo das redes sociais ocorreu em 2006, quando o Facebook abriu seu serviço ao público após anos atendendo estudantes de universidades selecionadas. Milhões rapidamente se inscreveram em um serviço gratuito onde a única fonte de monetização era a extração de sua atenção e dados pessoais.

Hoje cerca de metade dos americanos são usuários diários de IA, principalmente por meio de produtos gratuitos da empresa-mãe do Facebook, Meta, e de alguns outros gigantes de tecnologia conhecidos e empresas de tecnologia apoiadas por capital de risco, como Google, Microsoft, OpenAI e Anthropic — com todo incentivo para seguir o mesmo caminho das plataformas sociais.

Mas agora, como naquela época, existem alternativas. Algumas iniciativas sem fins lucrativos estão desenvolvendo ferramentas de IA de código aberto que têm bases transparentes e podem ser operadas localmente e sob controle dos usuários, como AllenAI e EleutherAI. Alguns governos, como Cingapura, Indonésiae Suíça, estão construindo alternativas públicas à IA corporativa que não sofrem dos incentivos perversos introduzidos pelo motivo de lucro das entidades privadas.

Assim como usuários de redes sociais enfrentaram escolhas de plataforma com uma variedade de propostas de valor e valências ideológicas — tão diversas quanto X, Bluesky e Mastodonte—o mesmo será cada vez mais verdadeiro para a IA. Aqueles de nós que usam produtos de IA no dia a dia como pessoas, trabalhadores e cidadãos talvez não tenham o mesmo poder que juízes, legisladores e autoridades estaduais. Mas podemos desempenhar um pequeno papel na influência do ecossistema mais amplo da IA demonstrando interesse e uso dessas alternativas à Grande IA. Se você é um usuário regular de aplicativos comerciais de IA, considere experimentar o serviço gratuito para Modelo público Apertus da Suíça.

Nenhuma dessas escolhas é realmente nova. Todos eles estavam presentes há quase 20 anos, quando as redes sociais passaram de nicho para mainstream. Eram todos debates políticos que não tivemos, escolhendo enxergar essas tecnologias sob óculos cor-de-rosa. Hoje, porém, podemos escolher um caminho diferente e realizar um futuro diferente. É fundamental que trilhemos intencionalmente um caminho para um futuro positivo para o uso social da IA — antes que a consolidação do poder torne tarde demais para isso.

Este post foi escrito com Nathan E. Sanders e apareceu originalmente em Justiça.

Tags: , , ,

Postado em 2 de dezembro de 2025 às 7:03
0 comentários

Foto lateral de Bruce Schneier por Joe MacInnis.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.