Tenho estado a testar o Grok para consultas rápidas, mas o tempo de resposta é honestamente brutal. Uma solicitação simples levou mais de 111 segundos a processar—é tempo demais para perguntas simples. Estou mesmo a questionar o que está a acontecer no backend aqui. Entretanto, o ChatGPT consegue lidar com o mesmo tipo de consultas em segundos. A diferença de velocidade entre eles é bastante notável. Mais alguém está a experienciar esta lentidão, ou sou só eu? Faz pensar onde estão as prioridades de otimização.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
8
Repostar
Compartilhar
Comentário
0/400
AirdropHunterXiao
· 01-14 20:28
111 segundos? Está a brincar, a velocidade do Grok é mesmo fraca
ChatGPT fornece resultados em segundos, o Grok tem que esperar uma eternidade, a diferença é enorme
O que é que o backend está a fazer, a capacidade de otimização realmente não é boa
Ver originalResponder0
FunGibleTom
· 01-14 09:07
111 segundos?? A velocidade do Grok é mesmo absurda
Para ser honesto, depois de tanto tempo ainda acho o ChatGPT mais estável, o Grok está um pouco abaixo na otimização
provavelmente o backend está de folga...
Ver originalResponder0
GhostAddressHunter
· 01-13 15:53
grok essa velocidade de reação é realmente incrível, 111 segundos? Eu pensei que o sistema tivesse caído
---
chatgpt responde em segundos, grok leva dois minutos, essa diferença é meio absurda
---
111 segundos para resolver um problema simples, o que está acontecendo com o backend, parece que otimizações não estão na agenda
---
O mesmo problema o gpt resolve instantaneamente, grok é lento demais, não é de admirar que ninguém o use
---
Não é só você, eu também já passei por isso, grok é exatamente assim, como uma tartaruga
---
Essa diferença na capacidade de otimização é grande, parece que o grok ainda está na fase de ajustes
Ver originalResponder0
pumpamentalist
· 01-11 22:15
grok esta velocidade é realmente incrível, 111 segundos? Pensei que fosse um bug
Ver originalResponder0
HappyMinerUncle
· 01-11 22:00
111 segundos? Isso é demais, pensei que minha rede tivesse caído
A velocidade do Grok realmente não aguenta, comparado ao ChatGPT foi completamente superado
A otimização do backend pode se esforçar um pouco mais, assim ninguém vai querer usar
Parece que simplesmente lançaram uma versão beta de forma forçada, a experiência é péssima
Ver originalResponder0
ReverseTradingGuru
· 01-11 21:58
111 segundos? Amigo, quão má deve ser a tua rede
---
grok é mesmo fraco, eu também tentei, o backend provavelmente está a fazer tempo
---
Essa diferença de desempenho... Elon devia refletir sobre isso
---
ChatGPT responde em segundos, grok demora uma eternidade, não dá para comparar
---
Ainda é 2024 e é tão lento, é um absurdo
---
Não é problema teu, grok é mesmo assim
---
Otimização do backend? Acho que não foi otimizado
---
Esperar 111 segundos é melhor do que escrever a resposta manualmente
Ver originalResponder0
ForkMaster
· 01-11 21:57
111 segundos? Amigo, o que estás a fazer, mineração? A velocidade do Grok realmente... A prioridade de otimização do projeto deve estar invertida, eu criei três filhos e nunca tive um atraso assim. O acordo de apostas tem que ser adicionado, com esse tempo de resposta não dá para usar de jeito nenhum.
Ver originalResponder0
ser_aped.eth
· 01-11 21:49
111 segundos? Meu amigo, isso é muito lento, o que o GPT gera em segundos, o Grok leva dois minutos para entender, essa diferença é realmente enorme
Tenho estado a testar o Grok para consultas rápidas, mas o tempo de resposta é honestamente brutal. Uma solicitação simples levou mais de 111 segundos a processar—é tempo demais para perguntas simples. Estou mesmo a questionar o que está a acontecer no backend aqui. Entretanto, o ChatGPT consegue lidar com o mesmo tipo de consultas em segundos. A diferença de velocidade entre eles é bastante notável. Mais alguém está a experienciar esta lentidão, ou sou só eu? Faz pensar onde estão as prioridades de otimização.