Em algum lugar, agora mesmo, um algoritmo está decidindo se você pode conseguir um empréstimo. Outro está orientando o diagnóstico de um médico. Um terceiro está determinando qual notícia você vai ler primeiro — e o que vai moldar sua opinião sobre o mundo. A inteligência artificial já não é uma promessa futurista. Ela é a infraestrutura invisível do presente.
Como chegamos até aqui
Por décadas, a inteligência artificial existiu nos laboratórios de pesquisa como uma ideia ambiciosa e cara demais para o mundo real. O ponto de virada começou em 2017, com a publicação do artigo "Attention Is All You Need" — que introduziu os transformers, a arquitetura por trás dos modelos de linguagem modernos. Em menos de uma década, essa tecnologia saiu dos servidores do Google e chegou a cada smartphone, hospital e gabinete governamental.
O que mudou não foi apenas a potência computacional. Foi a escala de adoção. O ChatGPT chegou a 100 milhões de usuários em dois meses — algo que o Facebook levou quatro anos para alcançar. Desde então, o ecossistema explodiu: hoje existem centenas de modelos de linguagem competindo, especializando-se e se integrando a sistemas críticos de forma que a maioria das pessoas sequer percebe.
Governos: IA no coração do poder
Em 2026, 132 países já utilizam sistemas de inteligência artificial em pelo menos uma área de política pública, de acordo com dados do Oxford Internet Institute. Mas o que isso significa na prática?
- Na China, o sistema de crédito social usa IA para monitorar comportamento de cidadãos e empresas, influenciando acesso a serviços, transporte e emprego.
- Nos Estados Unidos, algoritmos de risco preditivo são usados em decisões de liberdade condicional — determinando quanto tempo alguém passa na prisão com base em padrões estatísticos.
- Na União Europeia, sistemas de IA gerenciam fronteiras, analisando expressões faciais e padrões de fala em entrevistas de imigração.
- No Brasil, o Detran de vários estados usa reconhecimento facial integrado a câmeras de tráfego para identificar infratores em tempo real.
"Quando uma decisão que muda sua vida é tomada por um algoritmo, quem você responsabiliza? Quem você processa? Quem pede desculpas?"
— Kate Crawford, pesquisadora de ética em IA, AI Now InstituteO problema não é que os governos usem tecnologia. É que a maioria desses sistemas opera sem transparência, sem recurso e sem a possibilidade real de contestação. Quando um algoritmo nega seu pedido de benefício social ou sinaliza seu nome para investigação fiscal, você raramente sabe por quê — e muitas vezes não tem como provar que o erro é do sistema.
Saúde: o médico que nunca dorme
A medicina é talvez o campo onde a IA apresenta o maior potencial e os maiores riscos simultaneamente. Modelos de visão computacional já detectam certos tipos de câncer de pele e retinopatia diabética com precisão superior à de especialistas humanos em condições controladas. O sistema Med-PaLM 2, do Google, passou no exame de licenciatura médico americano com pontuação comparável à de médicos experientes.
Atenção: "Precisão em condições controladas" é muito diferente de "precisão no mundo real". Estudos mostram que modelos de diagnóstico por imagem frequentemente performam pior em hospitais públicos com equipamentos mais antigos — exatamente onde os pacientes mais precisam de ajuda.
No Brasil, o Hospital das Clínicas de São Paulo — um dos maiores da América Latina — já usa IA para triagem de exames de imagem, priorizando casos críticos. Mas a tecnologia traz consigo questões sérias: quem é responsabilizado quando o algoritmo erra um diagnóstico? O médico que confiou nele? A empresa que o desenvolveu? O hospital que o adquiriu?
O viés que mata
Um estudo publicado na Nature Medicine em 2024 revelou que modelos de IA treinados majoritariamente com dados de pacientes brancos apresentam erros significativamente maiores ao analisar casos de pacientes negros — especialmente em condições que se manifestam de forma diferente em diferentes grupos étnicos. O viés nos dados de treinamento se torna, literalmente, um viés que pode custar vidas.
Ponto positivo: A regulamentação europeia de IA (AI Act, em vigor desde 2025) já classifica sistemas de IA em saúde como de "alto risco" e exige auditorias obrigatórias, transparência algorítmica e supervisão humana. É um passo na direção certa — mas a implementação ainda é desafiadora.
Mercados financeiros: a IA que move trilhões
Hoje, estima-se que mais de 70% do volume de negociações nas principais bolsas mundiais seja executado por algoritmos — a maioria deles, algum tipo de sistema de aprendizado de máquina. Isso não é novidade. O que mudou é a profundidade da integração: modelos de linguagem agora leem e interpretam notícias, relatórios e até redes sociais para tomar decisões de investimento em milissegundos.
O problema? Quando muitos algoritmos diferentes são treinados com dados similares, eles podem reagir de forma idêntica ao mesmo evento — criando volatilidade extrema e amplificando crises. O "Flash Crash" de 2010, quando o Dow Jones caiu 1.000 pontos em minutos e se recuperou quase imediatamente, foi um prelúdio do que pode acontecer em escala ainda maior à medida que os sistemas se tornam mais interconectados.
O que está em jogo: três perguntas que ninguém responde
Diante de tudo isso, três questões fundamentais emergem — e é perturbador como raramente são debatidas de forma séria:
- Quem é responsável? Quando um sistema de IA causa dano — nega um tratamento, favorece um réu, provoca uma crise financeira — a cadeia de responsabilidade é deliberadamente obscura. Desenvolvedores, compradores e usuários finais frequentemente se esquivam mutuamente.
- Quem audita? A maioria dos sistemas de IA de alto impacto opera como "caixas-pretas", inacessíveis até para os reguladores. Exigir transparência sem abrir mão de propriedade intelectual é um problema que ainda não tem solução satisfatória.
- Quem decide o que é justo? "Fairness" em IA é matematicamente impossível de otimizar para todos os grupos simultaneamente — pesquisadores provaram isso formalmente. Alguém tem que escolher. E essa escolha é política, não técnica.
"A IA não é neutra. Todo modelo carrega os valores, prioridades e preconceitos de quem o construiu e de quem pagou por ele."
— Timnit Gebru, fundadora do DAIR InstituteO que você pode — e deve — fazer
A narrativa de que "a IA vai tomar conta de tudo e não há nada a fazer" é tão falsa quanto a narrativa oposta, de que "tudo está sob controle". A realidade é que as escolhas feitas agora — sobre regulamentação, transparência e responsabilidade — vão determinar o tipo de mundo que existirá daqui a dez anos.
- Exija transparência quando uma decisão que afeta sua vida for tomada por sistema automatizado. No Brasil, a LGPD garante o direito de pedir explicações sobre decisões automatizadas.
- Entenda os sistemas que usam você — não apenas os que você usa. Seu banco, seu plano de saúde, seu empregador: todos provavelmente usam IA de alguma forma que impacta você.
- Participe do debate público sobre regulação de IA. Essas são decisões políticas, não apenas técnicas. E como tal, são influenciadas por quem faz barulho.
- Apoie organizações que trabalham por IA responsável e auditável — no Brasil, grupos como InternetLab e ITS Rio fazem esse trabalho.
O futuro não está escrito — mas está sendo codificado agora
A inteligência artificial não é inevitavelmente boa nem inevitavelmente ruim. É uma ferramenta poderosa — talvez a mais poderosa que a humanidade já construiu — e como toda ferramenta, o resultado depende inteiramente de quem a usa, com que objetivo e sob quais restrições.
O que é inevitável é que ela vai continuar se expandindo. Mais decisões, mais sistemas, mais integração. A única variável em aberto é se isso vai acontecer com ou sem accountability, com ou sem transparência, com ou sem a participação das pessoas que mais serão afetadas.
Essa não é uma questão técnica. É uma questão sobre que tipo de sociedade queremos construir. E a resposta, por enquanto, ainda está nas nossas mãos.
← Voltar para a página principal