منو موبایل

مدلی نو از هوش مصنوعی که کنترل را به صاحبان داده بازمی‌گرداند

آیا FlexOlmo نوید بازتعریف حاکمیت داده در مدل‌های زبانی بزرگ است؟

خبر تازه‌ای از دل آخرین پژوهش‌های مؤسسه Allen Institute for AI منتشر شده که می‌تواند قواعد بازی را در دنیای مدل‌های زبانی بزرگ تغییر دهد. مدلی نو به نام FlexOlmo معرفی شده که وعده می‌دهد چیزی را ممکن کند که تاکنون غیرممکن به‌نظر می‌رسید: بازپس‌گیری داده از دل یک مدل آموزش‌دیده.

برای اینکه بدانید دامنه‌ی این تحول تا کجاست بگذارید با هم مسیر مدل‌های زبانی را بررسی کنیم. تا امروز، مدل‌های زبانی بزرگ مسیری یک‌طرفه داشتند: داده وارد مدل می‌شد، آموزش انجام می‌گرفت، و مدل نهایی به موجودیتی تبدیل می‌شد که هیچ ردپای قابل‌بازگشتی از داده‌های خام در آن باقی نمی‌ماند؛ یا اگر باقی مانده بود، حذف‌ناپذیر بود. استعاره‌ای که اغلب برای این وضعیت به کار می‌رود، به‌خوبی گویاست: حذف داده از یک مدل زبانی چیزی شبیه به «بازیابی تخم‌مرغ‌ها از یک کیک پخته‌شده» است.

اما FlexOlmo آمده تا این استعاره را زیر سؤال ببرد.

مدل‌هایی که می‌توانند فراموش کنند

FlexOlmo بر مبنای معماری «mixture of experts» ساخته شده است؛ روشی که به جای ساخت یک مدل یکپارچه و یک‌تکه، از چندین زیربخش (زیرمدل یا “expert”) تشکیل شده است. نوآوری FlexOlmo در این است که هر یک از این زیربخش‌ها می‌تواند به‌طور مستقل، با داده‌های مجزا و بدون نیاز به اشتراک‌گذاری مستقیم داده آموزش ببیند و سپس در مدل نهایی ترکیب شود.

این ویژگی، در ظاهر یک قابلیت فنی است، اما در عمق، دری به‌سوی حاکمیت داده، امکان خروج، و حتی نوعی قرارداد اجتماعی جدید در آموزش مدل‌های هوش مصنوعی باز می‌کند.

ایده کلی این نوآوری این است که شما به‌عنوان صاحب داده، ابتدا یک مدل عمومی به‌نام «anchor» را کپی می‌کنید، سپس داده خود را به‌طور خصوصی روی یک نسخه جدید آموزش می‌دهید. خروجی آن، بدون افشای داده، با مدل مرکزی تلفیق می‌شود. و اگر زمانی خواستید داده‌تان را از مدل حذف کنید، فقط زیرمدلی که روی داده شما آموزش دیده بود از ترکیب نهایی خارج می‌شود، بی‌نیاز از بازآموزی کامل مدل یا صرف منابع کلان.

چرا این مسئله مهم است؟

این قابلیت، به‌ظاهر فنی، پاسخی بالقوه به سه چالش کلیدی صنعت هوش مصنوعی است:

  1. مسئله‌ی مالکیت و رضایت داده: در شرایطی که دعواهای حقوقی ناشران، هنرمندان و پدیدآورندگان محتوا علیه غول‌های هوش مصنوعی بالا گرفته، FlexOlmo مدلی از همکاری مسئولانه را پیشنهاد می‌دهد. داده‌ات را می‌خواهی بدهی؟ ایرادی ندارد. ولی اگر منصرف شدی، راهی برای پس‌گرفتن هست.
  2. چالش‌های مربوط به داده‌های حساس: سازمان‌ها و نهادهایی که با داده‌های حساس سر و کار دارند -از بانک‌ها تا مؤسسات درمانی- حالا شاید بتوانند بدون افشای داده، در توسعه مدل‌ها مشارکت کنند. البته هنوز نگرانی‌هایی درباره امکان بازسازی داده از مدل نهایی باقی است که نیازمند ترکیب این روش با رویکردهایی نظیر differential privacy است.
  3. مسیرهای جدید برای مدل‌های باز و مشارکتی: اگر داده‌ها نقطه گلوگاه ساخت مدل‌های هوش مصنوعی‌اند -چنان‌که سِوون مین، پژوهشگر ارشد Ai2 و معمار اصلی این پروژه، می‌گوید – پس شاید راه حل نه در انحصار، بلکه در طراحی مشارکت‌های هوشمندانه باشد. مشارکت‌هایی که به زعم سِوون مین از حریم خصوصی و حق انتخاب محافظت می‌کنند.

آیا این یک انقلاب است یا فقط یک امکان تازه؟

FlexOlmo هنوز در مراحل آزمایشگاهی است. مدل ۳۷ میلیارد پارامتری‌ای که بر مبنای آن ساخته شده، حدود یک‌دهم بزرگ‌ترین مدل‌های منبع‌باز موجود است. اما همین هم نشان داده که در مقایسه با مدل‌های دیگر -چه مدل‌های منفرد، چه مدل‌های ترکیب‌شده‌ی مستقل- عملکرد بهتری دارد.

این یعنی FlexOlmo مثل خیلی از پروژه‌های هوش مصنوعی امروز دنیا فقط یک ژست اخلاقی نیست، بلکه پروژه‌ای است که واقعا کار می‌کند. و اگر قرار باشد آینده مدل‌های زبانی بزرگ به‌سمت ماژولار شدن، انعطاف‌پذیری در آموزش، و بازاندیشی در زنجیره ارزش داده حرکت کند، شاید این نقطه‌عطف به‌یاد ماندنی‌ای باشد.

دنیایی که در آن می‌توان «نه» گفت!

برای سال‌ها، رابطه میان صاحبان داده و توسعه‌دهندگان مدل‌های هوش مصنوعی چیزی شبیه به «همه یا هیچ» بوده: یا داده‌هایت را بده، یا از قطار جا بمان. اما FlexOlmo الگویی پیشنهاد می‌دهد که در آن می‌توان مشارکت کرد و همچنان حق خروج داشت.

و شاید این همان چیزی باشد که آینده به آن نیاز دارد: نه مدل‌هایی که فقط هوشمندتر می‌شوند، بلکه مدل‌هایی که مسئول‌ترند.


مطالب مرتبط

انویدیا ۴ تریلیون دلاری؛ سیگنال ورود به عصر ابرساختارهای هوش مصنوعی

هوش مصنوعی امروز عاملی است که قواعد اقتصاد و نوآوری را بازتعریف کرده است. حالا با خبری که این روزها […]

4 دقیقه مطالعه مشاهده
How does artificial intelligence prevent banks from being hacked?

چگونه هوش مصنوعی جلوی هک‌شدن بانک را می‌گیرد؟

در روزهای اخیر، گزارش‌هایی درباره نشت اطلاعات، اختلال در سرویس‌ها یا سرقت‌های دیجیتالی در برخی سامانه‌های بانکی و صرافی‌های آنلاین […]

4 دقیقه مطالعه مشاهده

آیا سواد داده می‌تواند ما را از آینده تاریک ساگان نجات دهد؟

«کارل ساگان» (Carl Edward Sagan) اخترشناس و نویسنده‌ی آمریکایی، از پیشگامان اخترزیست‌شناسی و بنیان‌گذاران طرح جست‌وجوی هوش فرازمینی (SETI) نسبت […]

9 دقیقه مطالعه مشاهده

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *