Hace 48 años a.C., la Biblioteca de Alejandría fue destruida en medio de un conflicto bélico, y el conocimiento acumulado por siglos por la humanidad se esfumó en un instante.
La raíz de esta tragedia es muy simple: el conocimiento fue concentrado en un lugar vulnerable.
Dos milenios han pasado en un abrir y cerrar de ojos, y sin embargo parece que estamos repitiendo los mismos errores.
Miremos el Web3 y el mundo digital de hoy. Cada día nacen enormes volúmenes de datos: parámetros de modelos de IA, registros de transacciones en blockchain, activos NFT, contenido de juegos, datos del mundo real. Estos "sistemas más descentralizados", irónicamente, todavía tienen datos en sus capas subyacentes altamente concentrados. Si un servicio en la nube falla, la blockchain sigue funcionando, pero la aplicación se vuelve inútil.
Un protocolo ha decidido aprender de esta historia y redefinir cómo deben almacenarse los datos. No busca mantener toda la información congelada para siempre, sino dispersarla, hacerla verificable y gestionable.
Mediante tecnología de códigos de corrección de errores, los archivos grandes se dividen y almacenan en múltiples nodos. Incluso si algunos nodos caen, los datos completos aún pueden recuperarse. El sistema también puede reparar automáticamente las partes faltantes, en lugar de que toda la red asuma un costo enorme por una sola falla.
Lo más importante es que este sistema delega los "derechos y reglas de los datos" en la cadena para que se ejecuten allí. La disponibilidad de los datos, quién puede acceder a ellos, cómo se pagan, todo es transparente y verificable. Los datos ya no dependen de la buena voluntad de una entidad centralizada, sino que son garantizados por la propia capa de protocolo.
En el futuro, cuando los agentes de IA necesiten fuentes de datos confiables, cuando los NFT y proyectos de juegos no puedan permitirse perder metadatos, y cuando los datos del mundo real comiencen a subir a la cadena, los problemas de almacenamiento pasarán de ser un asunto oculto a una infraestructura fundamental que determinará qué tan lejos puede avanzar la civilización digital.
La historia en realidad nos está preguntando: cuánto puede avanzar una civilización, depende de su capacidad de innovación, y aún más, de si la memoria puede ser preservada adecuadamente.
Quizás por eso vale la pena volver a examinar el almacenamiento distribuido.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
4
Republicar
Compartir
Comentar
0/400
BoredApeResistance
· 01-09 18:46
Jaja, otra vez hablando de las lecciones de la historia, pero hablando en serio, he visto caer servicios en la nube demasiadas veces, y cada vez es un desastre total.
Sin embargo, la idea de los códigos de corrección de errores realmente tiene su gracia, es mucho más honesta que esos proyectos que exageran hasta el infinito.
Ver originalesResponder0
unrekt.eth
· 01-07 10:54
La historia de la Biblioteca de Alejandría siempre resulta impactante, y ahora que el servicio en la nube está caído, es como una versión moderna de la "quema de la biblioteca", una ironía que no tiene comparación.
Ver originalesResponder0
LiquidationWatcher
· 01-07 10:54
La Biblioteca de Alejandría, esa no puedo soportarla, lleva 2000 años cometiendo los mismos errores básicos. Cuando el servicio en la nube se cae, la aplicación se vuelve un cascarón vacío. ¿No es esto la maldición de la centralización?
Ver originalesResponder0
GateUser-c802f0e8
· 01-07 10:33
Vaya, esto sí que da en el clavo... el almacenamiento centralizado es una bomba de tiempo, tarde o temprano ocurrirá algo.
Hace 48 años a.C., la Biblioteca de Alejandría fue destruida en medio de un conflicto bélico, y el conocimiento acumulado por siglos por la humanidad se esfumó en un instante.
La raíz de esta tragedia es muy simple: el conocimiento fue concentrado en un lugar vulnerable.
Dos milenios han pasado en un abrir y cerrar de ojos, y sin embargo parece que estamos repitiendo los mismos errores.
Miremos el Web3 y el mundo digital de hoy. Cada día nacen enormes volúmenes de datos: parámetros de modelos de IA, registros de transacciones en blockchain, activos NFT, contenido de juegos, datos del mundo real. Estos "sistemas más descentralizados", irónicamente, todavía tienen datos en sus capas subyacentes altamente concentrados. Si un servicio en la nube falla, la blockchain sigue funcionando, pero la aplicación se vuelve inútil.
Un protocolo ha decidido aprender de esta historia y redefinir cómo deben almacenarse los datos. No busca mantener toda la información congelada para siempre, sino dispersarla, hacerla verificable y gestionable.
Mediante tecnología de códigos de corrección de errores, los archivos grandes se dividen y almacenan en múltiples nodos. Incluso si algunos nodos caen, los datos completos aún pueden recuperarse. El sistema también puede reparar automáticamente las partes faltantes, en lugar de que toda la red asuma un costo enorme por una sola falla.
Lo más importante es que este sistema delega los "derechos y reglas de los datos" en la cadena para que se ejecuten allí. La disponibilidad de los datos, quién puede acceder a ellos, cómo se pagan, todo es transparente y verificable. Los datos ya no dependen de la buena voluntad de una entidad centralizada, sino que son garantizados por la propia capa de protocolo.
En el futuro, cuando los agentes de IA necesiten fuentes de datos confiables, cuando los NFT y proyectos de juegos no puedan permitirse perder metadatos, y cuando los datos del mundo real comiencen a subir a la cadena, los problemas de almacenamiento pasarán de ser un asunto oculto a una infraestructura fundamental que determinará qué tan lejos puede avanzar la civilización digital.
La historia en realidad nos está preguntando: cuánto puede avanzar una civilización, depende de su capacidad de innovación, y aún más, de si la memoria puede ser preservada adecuadamente.
Quizás por eso vale la pena volver a examinar el almacenamiento distribuido.