O cofundador da Ethereum, Vitalik Buterin, detalhou a sua configuração pessoal de IA num novo post de blog, descrevendo a configuração como simultaneamente “privada” e “segura.” Buterin afirmou que executa a sua configuração de inteligência artificial inteiramente em hardware local, e que construiu ferramentas personalizadas em torno do modelo de linguagem grande (LLM) para impedir que os seus agentes de IA enviem mensagens ou movam cripto sem a aprovação humana. “A nova autenticação de dois factores é o humano e o LLM”, escreveu. O post, publicado na quarta-feira, marca um passo além dos apelos anteriores de Buterin por IA que preserve a privacidade. Em fevereiro, ele apresentou um roteiro de Ethereum-AI em quatro quadrantes, abrangendo utilização de IA privada, mercados de agentes e governação. Mas este novo post vai mais longe, oferecendo um olhar pormenorizado sobre como ele próprio implementou, de facto, esses princípios. Buterin executa localmente o modelo Qwen3.5:35B de código aberto via llama-server. E, após testar várias configurações, prefere usar um portátil com uma GPU Nvidia 5090 que atinge 90 tokens por segundo. “É rápido o suficiente para se sentir utilizável”, acrescentou Buterin.
Ele guarda na sua máquina um dump completo de artigos da Wikipedia e de documentação técnica para minimizar a frequência com que precisa de consultar motores de pesquisa externos, que considera uma fuga de privacidade. A revelação mais relevante para a cripto envolve a forma como liga a IA à sua carteira Ethereum e às suas contas de mensagens. Buterin escreveu que construiu e disponibilizou como código aberto um daemon de mensagens que permite ao seu agente de IA ler mensagens do Signal e emails livremente, mas restringe as mensagens de saída apenas para si, a menos que um humano as aprove manualmente primeiro. Ele aconselhou equipas a construir ferramentas de carteira Ethereum ligadas a IA a adotar a mesma arquitetura, com transações autónomas limitadas a $100 por dia e qualquer valor acima disso a exigir confirmação.
A abordagem é consistente com a forma como Buterin já gere as suas participações em cripto. Ele mantém 90% dos seus fundos numa carteira multisig Safe, distribuindo as chaves por contactos de confiança para que nenhuma pessoa, individualmente, se torne um ponto de falha. As proteções de segurança da IA parecem ser uma extensão da mesma filosofia para um contexto baseado em agentes. Buterin abriu o novo post de blog citando investigadores de segurança que descobriram que cerca de 15% das skills construídas para o OpenClaw, agora o repositório do GitHub com crescimento mais rápido da história, continham instruções maliciosas, com algumas a exfiltrar silenciosamente dados do utilizador sem qualquer indicação ao utilizador. “Venho de uma mentalidade profundamente assustada de que, tal como finalmente avançámos em privacidade com a popularização da encriptação ponta-a-ponta e de mais e mais software ‘local-first’, estamos à beira de dar 10 passos atrás ao normalizar a alimentação de toda a tua vida a IA baseada na nuvem”, escreveu no post.