moghzafzar

Cocoon تلگرام: پایان سلطه آمازون و مایکروسافت با شبکه هوش مصنوعی غیرمتمرکز بر بستر TON

⏱ این مطلب چقدر از وقت شما را میگیرد؟

حدود 8 دقیقه

پاول دورف تلگرام، شبکه Cocoon را رونمایی کرد؛ یک پلتفرم هوش مصنوعی غیرمتمرکز (Decentralized AI) مبتنی بر بلاکچین TON. این مقاله به معماری فنی، نقش TEE در محاسبات محرمانه و مزایای اقتصادی و امنیتی Cocoon نسبت به غول‌های ابری می‌پردازد.


۱. تولد یک بازار آزاد برای قدرت پردازشی هوش مصنوعی

در دوران انفجار مدل‌های زبان بزرگ (LLMs) و نیاز فزاینده به منابع عظیم GPU، کنترل زیرساخت‌های پردازشی هوش مصنوعی در دست چند شرکت بزرگ متمرکز (مانند AWS، Azure و GCP) قرار گرفته است. این تمرکز، منجر به هزینه‌های بالا، عدم شفافیت در عملیات و مهم‌تر از همه، ریسک بالای نقض حریم خصوصی داده‌ها می‌شود.

  1. پاول دورف، مدیرعامل تلگرام، اخیراً آغاز به کار رسمی شبکه Cocoon را بر بستر بلاکچین TON (The Open Network) اعلام کرد. این پروژه یک حرکت استراتژیک برای مقابله با سلطه متمرکز شرکت‌های ابری است. هدف اصلی Cocoon، ایجاد یک بازار شفاف و رقابتی برای منابع پردازشی است، جایی که واسطه‌های گران‌قیمت حذف شده و حریم خصوصی کاربران از طریق رمزنگاری سخت‌افزاری تضمین شود.
  2. Cocoon با هدف تبدیل هر سرور مجهز به GPU در سراسر جهان به یک گره فعال در شبکه، قصد دارد زیرساختی غیرمتمرکز، منعطف و کم‌هزینه برای اجرای استنتاج (Inference) هوش مصنوعی فراهم آورد.

۲. شبکه Cocoon تلگرام چیست؟ (Confidential Compute Open Network)

Cocoon که مخفف Confidential Compute Open Network (شبکه باز رایانش محرمانه) است، یک پلتفرم غیرمتمرکز پیشرفته برای اجرای مدل‌های هوش مصنوعی است که به‌طور کامل بر روی اکوسیستم بلاکچین TON بنا شده است.

Cocoon اساساً شبیه به یک بازار آزاد (Open Marketplace) عمل می‌کند که دو گروه اصلی را به یکدیگر متصل می‌سازد:

  1. صاحبان سخت‌افزار (Workerها): افرادی که سرورها و GPUهای قدرتمند دارند و مایلند قدرت پردازشی مازاد خود را به صورت امن و غیرمتمرکز اجاره دهند و در ازای آن توکن‌های TON کسب کنند.
  2. توسعه‌دهندگان (Clientها): توسعه‌دهندگانی که نیاز به اجرای مدل‌های سنگین هوش مصنوعی (مانند استنتاج یا تنظیم دقیق سبک مدل‌ها) دارند اما خواهان دوری از هزینه‌های سرسام‌آور و محدودیت‌های سرویس‌های ابری سنتی هستند.

۲.۱. فلسفه پشت Cocoon: محاسبات محرمانه (Confidential Computing)

قلب تپنده امنیتی Cocoon، تکنولوژی محیط‌های اجرای قابل اطمینان (Trusted Execution Environments یا TEE) است.

در زیرساخت‌های ابری سنتی، هنگامی که کاربر داده‌ای را به سرور ارسال می‌کند، این داده‌ها معمولاً برای پردازش در حافظه رمزگشایی می‌شوند. در این حالت، ارائه‌دهنده خدمات ابری (مانند آمازون) به طور فنی می‌تواند به داده‌ها دسترسی پیدا کند.

TEE این معادله را تغییر می‌دهد:
TEE یک فضای ایزوله و رمزنگاری‌شده در داخل پردازنده اصلی (CPU یا GPU) ایجاد می‌کند که به آن Enclave گفته می‌شود.

  • رمزنگاری در حالت استفاده (Encryption in Use): داده‌های ورودی کاربر در زمان ورود به Enclave رمزگشایی شده و فرآیند محاسباتی در داخل این محیط کاملاً محافظت‌شده انجام می‌شود.
  • اثبات انزوا: حتی صاحب فیزیکی سرور (Worker) نیز توانایی مشاهده یا دسترسی به محتوای حافظه یا وضعیت مدل در حال اجرا در TEE را نخواهد داشت.

در Cocoon، این قابلیت عمدتاً از طریق تکنولوژی‌های مانند Intel TDX (Trust Domain Extensions) پیاده‌سازی می‌شود که تضمین می‌کند عملیات محاسباتی کاملاً مستقل از سیستم‌عامل یا سخت‌افزار میزبان صورت می‌گیرد.

۳. معماری فنی شبکه Cocoon: سه رکن اصلی

معماری Cocoon طراحی شده است تا هم مقیاس‌پذیری لازم برای مدل‌های AI را فراهم کند و هم امنیت سطح سخت‌افزاری را اعمال نماید. این معماری بر سه جزء اصلی تکیه دارد که همگی در محیط‌های حفاظتی TEE فعالیت می‌کنند تا اعتماد را در سطح پروتکل ایجاد کنند:

۳.۱. کلاینت (Client)

در سمت توسعه‌دهنده (یا کاربر نهایی) اجرا می‌شود. وظایف اصلی آن عبارتند از:

  1. ارسال درخواست استنتاج: شامل مدل مورد نظر (یا ارجاع به مدلی که از قبل در شبکه ثبت شده است) و داده‌های ورودی (Prompt).
  2. رمزنگاری داده‌ها: داده‌ها پیش از ارسال به شبکه، با کلیدهای مختص به جلسه رمزنگاری می‌شوند.
  3. مدیریت پرداخت: محاسبه هزینه بر اساس زمان و منابع مصرفی (بر حسب توکن TON) و ایجاد تراکنش پرداخت.

۳.۲. پروکسی (Proxy)

پروکسی نقشی حیاتی در هدایت ترافیک در این محیط غیرمتمرکز ایفا می‌کند و خود نیز در یک TEE امن اجرا می‌شود. وظایف آن عبارتند از:

  1. دریافت درخواست‌ها: دریافت درخواست رمزنگاری شده از کلاینت.
  2. انتخاب Worker مناسب: با توجه به معیارهایی مانند موقعیت جغرافیایی، ظرفیت GPU و نرخ پیشنهادی Worker، مناسب‌ترین سرور را برای انجام محاسبات انتخاب می‌کند.
  3. اتصال امن (Attestation): پیش از ارجاع کار، پروکسی باید از صحت و سلامت محیط TEE روی Worker اطمینان حاصل کند.

۳.۳. ورکر (Worker)

ورکر همان سخت‌افزار فیزیکی است که قدرت پردازشی واقعی را فراهم می‌آورد. این بخش‌ها باید قابلیت‌های سخت‌افزاری پیشرفته‌ای داشته باشند:

  1. اجرای مدل: اجرای مدل‌های AI در داخل یک ماشین مجازی محافظت‌شده (TEE/Enclave).
  2. محاسبه محرمانه: پردازش داده‌های رمزنگاری شده و تولید خروجی رمزنگاری شده.
  3. تأیید صحت (Attestation Reporting): Worker موظف است گزارشی رمزنگاری شده به پروکسی ارائه دهد که تأیید می‌کند اجرای محاسبات دقیقاً طبق پارامترهای درخواست شده و در یک محیط TEE تأیید شده انجام شده است.

نقش TEE در امنیت ارتباطات: RA-TLS

برای تضمین اینکه ترافیک بین اجزا (Client، Proxy و Worker) در طول انتقال نیز محافظت شود و فقط به سمت طرف مورد نظر هدایت شود، Cocoon از یک مکانیزم امنیتی پیشرفته به نام RA-TLS (Remote Attestation Transport Layer Security) استفاده می‌کند.

RA-TLS بر پایه پروتکل استاندارد TLS بنا شده است، اما با یک مرحله اضافی: پیش از ایجاد اتصال امن، هر دو طرف (به خصوص Worker) باید اثبات کنند که نرم‌افزار مورد نظر در یک Enclave سخت‌افزاری معتبر در حال اجراست. این امر باعث می‌شود که حتی شنود ترافیک نیز بی‌فایده باشد زیرا محتوای داده‌ها تا زمان رسیدن به Enclave رمزنگاری باقی می‌ماند.


۴. مکانیسم‌های اقتصادی و پرداخت‌ها بر بستر TON

استفاده از بلاکچین TON مزایای متعددی را از نظر سرعت تراکنش و هزینه‌های پایین برای Cocoon به ارمغان می‌آورد که برای اجرای سریع و خرد مدل‌های هوش مصنوعی ضروری است:

۴.۱. استفاده از توکن TON

تمام پرداخت‌ها برای دسترسی به منابع محاسباتی در شبکه Cocoon با استفاده از ارز بومی بلاکچین، یعنی TON Coin، انجام می‌شود. این امر به چندین دلیل مهم است:

  • سرعت بالا: TON به دلیل معماری شاردینگ پیشرفته خود، قادر به پردازش هزاران تراکنش در ثانیه (TPS) است، که برای میکرو پرداخت‌های متوالی مورد نیاز در استنتاج‌های AI ضروری است.
  • هزینه‌های پایین (Gas Fees): هزینه‌های تراکنش در TON بسیار پایین‌تر از شبکه‌های لایه یک سنتی است، که امکان اجرای کارهای محاسباتی بسیار ارزان را برای کلاینت‌ها فراهم می‌آورد.
  • مکانیسم شفاف: تراکنش‌ها بر بستر یک دفتر کل عمومی ثبت می‌شوند، که باعث می‌شود سابقه پرداخت‌ها برای Workerها قابل تأیید و غیرقابل تغییر باشد.

۴.۲. مدل قیمت‌گذاری و پاداش

قیمت‌گذاری در Cocoon توسط عرضه و تقاضا در بازار تعیین می‌شود.

Workerها پس از تأیید موفقیت‌آمیز اجرای محاسبات توسط پروکسی و پروتکل، پاداش خود را به صورت TON دریافت می‌کنند. این مدل مستقیماً رقابت بین Workerها را تشویق می‌کند تا سخت‌افزار خود را با بالاترین کیفیت و کمترین قیمت ارائه دهند، که نتیجه آن کاهش هزینه برای توسعه‌دهندگان است.


۵. پیش‌نیازهای فنی برای مشارکت در شبکه Cocoon

برای تبدیل شدن به یک جزء فعال (Worker) در شبکه Cocoon و کسب درآمد از GPUهای بیکار، نیاز به رعایت دقیق استانداردهای سخت‌افزاری و نرم‌افزاری خاصی است:

۵.۱. الزامات سخت‌افزاری (Hardware Requirements)

تمرکز اصلی بر پشتیبانی از قابلیت‌های محاسبات محرمانه در سطح سخت‌افزار است:

  1. پردازنده مرکزی (CPU): نیاز به پردازنده‌هایی است که از تکنولوژی Intel TDX (Trust Domain Extensions) یا معادل‌های آن در AMD پشتیبانی کنند. در حال حاضر، پردازنده‌های نسل جدید Intel Xeon Scalable برای این منظور توصیه می‌شوند.
  2. کارت گرافیک (GPU): برای اجرای مدل‌های هوش مصنوعی، GPU قدرتمند ضروری است. به دلیل نیاز به انزوا در سطح GPU، کارت‌هایی که پشتیبانی کامل از TEE برای محاسبات گرافیکی را ارائه می‌دهند (مانند سری‌های پیشرفته انویدیا مانند H100، A100 و شاید نسل‌های بعدی) ارجحیت دارند.

۵.۲. الزامات نرم‌افزاری (Software Requirements)

  1. سیستم‌عامل: نیاز به یک نسخه به‌روز از لینوکس (ترجیحاً کرنل نسخه ۶.۱۶ به بالا) است تا بتواند مکانیزم‌های TEE را به درستی مدیریت کند.
  2. نرم‌افزار محیطی: نصب پلتفرم‌های لازم برای اجرای Enclaveها و برقراری ارتباط امن RA-TLS.
  3. TON Node Client: برای ثبت‌نام به عنوان Worker و دریافت پرداخت‌ها، باید یک نود کلاینت TON فعال در ارتباط با شبکه اصلی یا شارد مورد نظر وجود داشته باشد.

۶. مزایا و کاربردهای اصلی  شبکه Cocoon

Cocoon تنها یک جایگزین ارزان‌تر برای سرویس‌های ابری نیست؛ بلکه یک تغییر پارادایم در نحوه دسترسی به قدرت پردازشی هوش مصنوعی ارائه می‌دهد:

۶.۱. برای توسعه‌دهندگان (Clientها)

  1. حریم خصوصی مطلق و اعتماد صفر: توسعه‌دهندگان می‌توانند مدل‌های اختصاصی یا داده‌های ورودی بسیار حساسی را پردازش کنند، بدون اینکه نگران سرقت مالکیت فکری یا نشت داده‌ها توسط ارائه‌دهنده زیرساخت باشند.
  2. کاهش شدید هزینه‌ها: با حذف لایه‌های میانی مدیریتی شرکت‌های بزرگ، هزینه‌های استنتاج می‌تواند تا چندین برابر کاهش یابد.
  3. انعطاف‌پذیری مدل: دسترسی به منابع پراکنده جهانی باعث می‌شود که بتوان مدل‌های بهینه‌سازی شده برای مناطق خاص را سریع‌تر اجرا کرد.

۶.۲. برای صاحبان سخت‌افزار (Workerها)

  1. کسب درآمد غیرفعال: تبدیل سخت‌افزارهای بیکار (که اغلب سرمایه‌گذاری‌های سنگینی هستند) به منبع درآمد پایدار از طریق دریافت توکن TON.
  2. حاشیه سود بالا: کارمزد کم شبکه TON و تقاضای بالا برای GPUهای مرتبط با AI، حاشیه سود را برای Workerها افزایش می‌دهد.

۷. جمع‌بندی نهایی: آینده هوش مصنوعی غیرمتمرکز

شبکه Cocoon با ترکیب هوشمندانه‌ی هوش مصنوعی (AI)، غیرمتمرکزسازی (Decentralization) و محاسبات محرمانه (Confidential Computing)، یک تغییر بنیادین در زیرساخت‌های محاسباتی جهان ایجاد کرده است.

تلگرام با بهره‌گیری از سرعت و مقیاس‌پذیری زیرساخت TON، بستری فراهم کرده که نه تنها کارآمدتر و ارزان‌تر از راه‌حل‌های متمرکز است، بلکه مالکیت داده‌ها و امنیت کاربران را در هسته خود جای داده است. اگرچه چالش‌های فنی بزرگی در زمینه پذیرش TEE در مقیاس گسترده وجود دارد، اما ورود Cocoon نشان‌دهنده حرکت جدی صنعت به سمت دموکراتیزه کردن دسترسی به قدرت محاسباتی مورد نیاز برای نسل بعدی نوآوری‌های هوش مصنوعی است.

Avatar photo
علاقه مند طراحی وب سایت و برنامه نویسی
نوشته های مرتبط

تحقیق اتحادیه اروپا درباره تصاویر جنسی تولیدشده توسط گراک در پلتفرم ایکس

⏱ این مطلب چقدر از وقت شما را میگیرد؟ حدود 2 دقیقه…

معرفی GLM‑5؛ غول چینی متن‌باز که در کدنویسی از Gemini 3 Pro جلو زد

⏱ این مطلب چقدر از وقت شما را میگیرد؟ حدود 2 دقیقه…

دیدگاهتان را بنویسید