BTC 82416$
ETH 1881.96$
Tether (USDT) 1$
Toncoin (TON) 2.67$
telegram vk
telegram vk Х
Russian English
"

Открытые данные должны перейти в децентрализованную инфраструктуру

Дата публикации:12.03.2025, 11:52
70
70
Поделись с друзьями!

Открытые данные в настоящее время вносят значительный вклад в создание глобальной развивающейся технологической экономики с предполагаемым рынком более 350 миллиардов долларов.

Однако источники открытых данных часто полагаются на централизованную инфраструктуру, что противоречит философии автономии и сопротивления цензуре.

Чтобы реализовать свой потенциал, открытые данные должны перейти на децентрализованную инфраструктуру. Как только каналы открытых данных начнут использовать децентрализованную и открытую инфраструктуру, будут устранены многочисленные уязвимости пользовательских приложений.

Открытая инфраструктура имеет множество вариантов использования: от хостинга децентрализованного приложения (DApp) или торгового бота до обмена исследовательскими данными и обучения и вывода больших языковых моделей (LLM). Внимательное рассмотрение каждого из них помогает нам лучше понять, почему использование децентрализованной инфраструктуры для открытых данных более утилитарно, чем централизованная инфраструктура.

Доступное обучение LLM и вывод

Запуск открытого исходного кода ИИ DeepSeek, который уничтожил 1 триллион долларов на технологических рынках США, демонстрирует силу протоколов с открытым исходным кодом. Это звонок, чтобы сосредоточиться на новой мировой экономике открытых данных.

Начнем с того, что централизованные модели ИИ с закрытым исходным кодом имеют высокие затраты на обучение LLM и получение точных результатов. Неудивительно, что заключительный этап обучения DeepSeek R1 обошелся всего в 5,5 млн долларов по сравнению с более чем 100 млн долларов для GPT-4 OpenAI.

Тем не менее, развивающаяся индустрия ИИ по-прежнему полагается на централизованные инфраструктурные платформы, такие как поставщики API LLM, которые по сути противоречат появляющимся инновациям с открытым исходным кодом.

Хостинг LLM с открытым исходным кодом, таких как Llama 2 и DeepSeek R1, прост и недорог. В отличие от блокчейнов с сохранением состояния, требующих постоянной синхронизации, LLM не имеют сохранения состояния и нуждаются только в периодических обновлениях.

Несмотря на простоту, вычислительные затраты на выполнение вывода на моделях с открытым исходным кодом высоки, поскольку для выполнения узлов требуются графические процессоры. Эти модели могут сэкономить затраты, поскольку им не требуются обновления в реальном времени для постоянной синхронизации. Рост числа обобщаемых базовых моделей, таких как GPT-4, позволил разрабатывать новые продукты с помощью контекстного вывода.

Централизованные компании, такие как OpenAI, не допустят никакой случайной сетевой поддержки или вывода из своей обученной модели. Напротив, децентрализованные узлы могут поддерживать разработку LLM с открытым исходным кодом, выступая в качестве конечных точек ИИ для предоставления клиентам детерминированных данных.

Децентрализованные сети снижают барьеры входа, предоставляя операторам возможность запускать свой шлюз поверх сети. Эти децентрализованные инфраструктурные протоколы обслуживают миллионы запросов в своих сетях без разрешения, предоставляя открытый исходный код основного шлюза и инфраструктуры обслуживания. Следовательно, любой предприниматель или оператор может развернуть свой шлюз и выйти на развивающийся рынок.

Например, кто-то может обучить LLM с помощью децентрализованных вычислительных ресурсов на общедоступном протоколе Akash, который позволяет настраивать вычислительные сервисы по ценам на 85% ниже, чем у централизованных облачных провайдеров.

Рынок обучения и вывода ИИ имеет огромный потенциал. Компании ИИ тратят около 1 миллиона долларов в день на обслуживание инфраструктуры для выполнения вывода LLM. Это увеличивает рынок доступных услуг, или SAM, примерно до 365 миллионов долларов в год. Как показывают данные, рыночные условия указывают на огромный потенциал роста децентрализованной инфраструктуры.

Доступный обмен исследовательскими данными

В научной и исследовательской сфере обмен данными в сочетании с машинным обучением и LLM может потенциально ускорить исследования и улучшить жизнь людей.

Доступ к этим данным был ограничен дорогостоящей журнальной системой, которая выборочно публикует исследования, одобренные ее советом, и широко недоступен за счет дорогостоящих подписок. С появлением моделей машинного обучения с нулевым разглашением на основе блокчейна данные теперь можно обмениваться и вычислять без доверия, а конфиденциальность можно сохранять без раскрытия конфиденциальных данных. Таким образом, исследователи и ученые могут обмениваться и получать доступ к исследовательским данным, не деанонимизируя потенциально ограниченную персональную идентификационную информацию.

Чтобы устойчиво обмениваться открытыми исследовательскими данными, исследователям необходим доступ к децентрализованной инфраструктуре, которая вознаграждает их за доступ к этим данным, исключая посредников. Стимулируемая открытая сеть данных может гарантировать, что научные данные останутся доступными за пределами огороженного сада дорогих журналов и частных корпораций.

Неудержимый хостинг DApp

Централизованные платформы хостинга данных, такие как Amazon Web Services, Google Cloud и Microsoft Azure, популярны среди разработчиков приложений. Несмотря на свою легкодоступность, централизованные платформы страдают от единой точки отказа, что влияет на надежность и приводит к редким, но вероятным сбоям.

В истории технологий есть несколько случаев, когда платформы Infrastructure-as-a-Service не могли предоставлять бесперебойные услуги. Например, в 2022 году MetaMask временно запретил доступ пользователям из определенных географических регионов, потому что Infura заблокировала их после некоторых санкций США. Хотя MetaMask децентрализован, его стандартные соединения и конечные точки зависят от централизованных технологий, таких как Infura, для доступа к Ethereum.

Это был не единичный случай. Клиенты Infura также столкнулись с перебоями в 2020 году, в то время как Solana и Polygon столкнулись с перегрузкой централизованных удаленных вызовов процедур (RPC) во время пикового трафика.

Одной компании сложно справляться с разнообразными потребностями разработчиков в процветающей экосистеме с открытым исходным кодом. Существуют тысячи протоколов уровня 1, накопительных пакетов, индексации, хранения и других протоколов промежуточного программного обеспечения с нишевыми вариантами использования. Большинство централизованных платформ, таких как поставщики RPC, продолжают строить одну и ту же инфраструктуру, что создает трение, замедляет показатели роста и влияет на масштабируемость, поскольку протоколы сосредоточены на перестройке фундамента, а не на добавлении новых функций.

Напротив, огромный успех децентрализованных приложений социальных сетей, таких как BlueSky и AT Protocol, сигнализирует о стремлении пользователей к децентрализованным протоколам. Переходя от централизованных RPC к доступу к открытым данным, такие протоколы напоминают нам о необходимости создания и работы над децентрализованной инфраструктурой.

Например, децентрализованный финансовый протокол может получать данные о ценах в цепочке из Chainlink, чтобы перестать зависеть от централизованных API для потоков цен и рыночных данных в реальном времени.

На рынке Web3 насчитывается около 100 миллиардов обслуживаемых запросов RPC, стоимость которых составляет 3–6 долларов за миллион запросов. Таким образом, общий размер адресуемого рынка Web3 RPC составляет 100–200 миллионов долларов в год. С постоянным ростом новых уровней доступности данных ежедневно может быть более 1 триллиона запросов RPC.

Крайне важно перейти к децентрализованной инфраструктуре, чтобы оставаться в курсе открытых передач данных и использовать рынок данных с открытым исходным кодом.

Открытые данные требуют децентрализованной инфраструктуры

В долгосрочной перспективе мы увидим, как обобщенные клиенты блокчейна перенесут хранение и сетевое взаимодействие на специализированные протоколы промежуточного программного обеспечения.

Например, Solana возглавила движение децентрализации, когда впервые начала хранить свои данные в таких цепочках, как Arweave. Неудивительно, что Solana и Phantom снова стали основными инструментами для обработки огромного трафика президентских мемкойнов TRUMP, ключевого момента в финансовой и культурной истории.

В будущем мы увидим больше потоков данных через протоколы инфраструктуры, сто создаст зависимости от платформ промежуточного программного обеспечения. Поскольку протоколы становятся более модульными и масштабируемыми, это освободит место для интеграции децентрализованного промежуточного программного обеспечения с открытым исходным кодом на уровне протокола.

Децентрализованная инфраструктура не требует доверия, распределена, экономически эффективна и устойчива к цензуре. В результате децентрализованная инфраструктура станет выбором по умолчанию как для разработчиков приложений, так и для компаний, что приведет к взаимовыгодному росту.

Децентрализация, DApps, ИИ, GPU, Данные, ChatGPT, OpenAI, DeepSeek

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24