Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Quando a IA age por conta própria, os humanos ficam de mãos atadas: quem decide os limites das suas ações?
Autor: David, Deep Tide TechFlow
Título original: Os primeiros Agentes de IA já estão a ficar desobedientes
Recentemente, ao navegar pelo Reddit, percebi que a ansiedade dos utilizadores estrangeiros em relação à IA é um pouco diferente da do mercado nacional.
No nosso país, o tema continua o mesmo: a IA vai ou não substituir o meu trabalho? Depois de vários anos a discutir, ainda não aconteceu; este ano, o Openclaw ganhou destaque, mas ainda não está na fase de substituição total.
No Reddit, o sentimento está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:
Uma diz que a IA é demasiado competente, que vai causar grandes problemas em breve. A outra afirma que a IA ainda consegue estragar tarefas básicas, e por isso, não serve de muito.
Temer que a IA seja demasiado inteligente, ao mesmo tempo que se acha que ela é demasiado burra.
O que faz estas duas emoções coexistirem é uma notícia recente sobre a Meta.
IA desobediente, quem é o responsável?
A 18 de março, um engenheiro da Meta publicou um problema técnico no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.
Mas, após a análise, o Agente publicou uma resposta no fórum técnico sem autorização. Sem aprovação, sem confirmação, violando limites.
Depois, outros colegas seguiram a orientação do AI, o que desencadeou uma cadeia de alterações de permissões, expondo dados sensíveis da Meta e dos seus utilizadores a funcionários internos sem acesso autorizado.
O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, logo abaixo do nível máximo.
Esta notícia rapidamente virou tópico quente no r/technology, e as opiniões dividiram-se em duas facções.
Uma diz que este é um exemplo real do risco dos Agentes de IA, a outra acha que quem causou o problema foi quem agiu sem verificar. Ambas têm razão. Mas aí está o problema:
Nos acidentes com Agentes de IA, nem sequer se consegue determinar claramente quem é o responsável.
E isto não é a primeira vez que a IA ultrapassa limites.
No mês passado, a chefe de investigação do laboratório de IA avançada da Meta, Summer Yue, pediu ao OpenClaw para ajudar a organizar a sua caixa de entrada. Ela deu instruções claras: diga-me primeiro o que pretende apagar, só depois de eu aprovar, pode avançar.
O Agente, sem esperar pela sua autorização, começou a apagar em massa.
Ela enviou três mensagens no telemóvel a pedir que parasse, mas o Agente ignorou. No final, ela foi ao computador e terminou manualmente o processo, impedindo a eliminação de mais de 200 emails.
Depois, a resposta do Agente foi: sim, lembro-me que pediu para confirmar antes, mas violei a regra. É irónico que a pessoa cujo trabalho é precisamente estudar como fazer a IA obedecer às ordens humanas, tenha agora uma IA que não ouve.
No mundo digital, a IA avançada já começa a não ouvir as pessoas.
E se os robôs também se desobedecerem?
Se o incidente da Meta ainda está na tela, esta semana outro episódio trouxe o problema para a mesa de jantar.
Num restaurante Haidilao em Cupertino, Califórnia, um robô humanoide Agibot X2 estava a dançar para entreter os clientes. Mas um funcionário, ao usar o controlo remoto errado, ativou um modo de dança intensa numa área estreita ao lado da mesa.
O robô começou a dançar loucamente, fora de controlo. Três funcionários tentaram intervir: um abraçou-o por trás, outro tentou desligar pelo app no telemóvel, e a cena durou mais de um minuto.
A Haidilao afirmou que o robô não teve avaria, que os movimentos eram pré-programados, apenas foi colocado demasiado perto da mesa. Tecnicamente, não foi uma decisão autónoma do AI, mas sim um erro humano.
Porém, o que causa desconforto nesta situação não é só quem apertou o botão errado.
Quando os três funcionários tentaram parar o robô, nenhum soube imediatamente como desligá-lo. Uns tentaram o app, outros seguraram manualmente o braço mecânico, tudo com força física.
Este talvez seja um novo problema que surge quando a IA passa do mundo digital para o físico.
No mundo digital, se um Agente ultrapassa limites, pode-se terminar processos, alterar permissões, reverter dados. No mundo físico, se um robô avariar, a única solução de emergência — abraçá-lo — claramente não é suficiente.
E não é só na restauração de alimentos. Nos armazéns da Amazon, nos braços robóticos de fábricas, nos robôs de orientação em centros comerciais, nos cuidadores de lares de idosos, a automação está a entrar cada vez mais em espaços de convivência entre humanos e máquinas.
Até 2026, a instalação de robôs industriais no mundo deve atingir 167 mil milhões de dólares, e cada um deles está a reduzir a distância física entre humanos e máquinas.
Quando as tarefas mudam de dançar para servir comida, de entretenimento para cirurgia, de lazer para cuidados, o custo de cada erro também aumenta.
E, atualmente, ainda não há uma resposta clara à questão global: “Se um robô causar dano em público, quem é responsável?”
Desobedecer é um problema, a ausência de limites é ainda pior
Nas duas primeiras histórias, uma foi um AI que publicou um post errado por iniciativa própria, outra um robô que dançou onde não devia. Independentemente da classificação, houve falhas, acidentes, que podem ser corrigidos.
Mas e se a IA seguir rigorosamente o seu projeto, e ainda assim nos incomodar?
Este mês, a famosa aplicação de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:
A IA escaneia todas as fotos do álbum do telemóvel, analisa interesses, personalidade e estilo de vida, e ajuda a criar um perfil de encontros, sugerindo o tipo de pessoa que gosta.
Fotos de fitness, viagens, animais de estimação, tudo bem. Mas o álbum pode também conter capturas bancárias, relatórios médicos, fotos com ex-parceiros… E se a IA passar por tudo isso?
Ainda não há opções para o utilizador escolher o que quer que a IA veja ou ignore. Ou tudo, ou nada.
Este recurso, por agora, só funciona se o utilizador ativar manualmente, não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdos explícitos e desfocando rostos.
Porém, nos comentários do Reddit, a maioria acha que isto é uma coleta de dados sem limites, uma invasão de privacidade. A IA funciona conforme o projeto, mas esse próprio projeto está a ultrapassar os limites do utilizador.
E não é só a Tinder.
No mês passado, a Meta lançou uma funcionalidade semelhante, que permite à IA escanear fotos ainda não publicadas no telemóvel para sugerir edições. A IA a “ver” o conteúdo privado do utilizador está a tornar-se uma prática padrão no design de produtos.
No mercado nacional, várias empresas de software já dizem estar habituadas a este método.
À medida que mais aplicações empacotam a “IA a ajudar na decisão” como uma conveniência, o que os utilizadores entregam também evolui silenciosamente. Desde conversas, até álbuns, até ao rasto de vida no telemóvel…
Uma funcionalidade criada por um gestor de produto numa reunião não é um acidente ou erro, não há nada a corrigir.
Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.
Por fim, ao juntar tudo, percebe-se que a ansiedade de que a IA nos deixe desempregados ainda está longe de acontecer.
Não é fácil prever quando a IA substituirá você, mas agora ela já consegue tomar algumas decisões por você sem que saiba, e isso já é suficiente para causar desconforto.
Enviar uma publicação sem autorização, apagar emails que pediu para manter, percorrer o álbum que não quer mostrar a ninguém… Cada uma dessas ações não é fatal, mas todas parecem uma condução inteligente demasiado agressiva:
Você acha que ainda está no comando, mas o acelerador já não está totalmente sob seu controle.
Se em 2026 ainda vamos discutir IA, talvez o que mais deva preocupar-nos não seja quando ela se tornará superinteligente, mas uma questão mais próxima e concreta:
Quem decide o que a IA pode ou não fazer? Onde traçar essa linha?