مدلی نو از هوش مصنوعی که کنترل را به صاحبان داده بازمیگرداند
آیا FlexOlmo نوید بازتعریف حاکمیت داده در مدلهای زبانی بزرگ است؟
خبر تازهای از دل آخرین پژوهشهای مؤسسه Allen Institute for AI منتشر شده که میتواند قواعد بازی را در دنیای مدلهای زبانی بزرگ تغییر دهد. مدلی نو به نام FlexOlmo معرفی شده که وعده میدهد چیزی را ممکن کند که تاکنون غیرممکن بهنظر میرسید: بازپسگیری داده از دل یک مدل آموزشدیده.
برای اینکه بدانید دامنهی این تحول تا کجاست بگذارید با هم مسیر مدلهای زبانی را بررسی کنیم. تا امروز، مدلهای زبانی بزرگ مسیری یکطرفه داشتند: داده وارد مدل میشد، آموزش انجام میگرفت، و مدل نهایی به موجودیتی تبدیل میشد که هیچ ردپای قابلبازگشتی از دادههای خام در آن باقی نمیماند؛ یا اگر باقی مانده بود، حذفناپذیر بود. استعارهای که اغلب برای این وضعیت به کار میرود، بهخوبی گویاست: حذف داده از یک مدل زبانی چیزی شبیه به «بازیابی تخممرغها از یک کیک پختهشده» است.
اما FlexOlmo آمده تا این استعاره را زیر سؤال ببرد.
مدلهایی که میتوانند فراموش کنند
FlexOlmo بر مبنای معماری «mixture of experts» ساخته شده است؛ روشی که به جای ساخت یک مدل یکپارچه و یکتکه، از چندین زیربخش (زیرمدل یا “expert”) تشکیل شده است. نوآوری FlexOlmo در این است که هر یک از این زیربخشها میتواند بهطور مستقل، با دادههای مجزا و بدون نیاز به اشتراکگذاری مستقیم داده آموزش ببیند و سپس در مدل نهایی ترکیب شود.
این ویژگی، در ظاهر یک قابلیت فنی است، اما در عمق، دری بهسوی حاکمیت داده، امکان خروج، و حتی نوعی قرارداد اجتماعی جدید در آموزش مدلهای هوش مصنوعی باز میکند.
ایده کلی این نوآوری این است که شما بهعنوان صاحب داده، ابتدا یک مدل عمومی بهنام «anchor» را کپی میکنید، سپس داده خود را بهطور خصوصی روی یک نسخه جدید آموزش میدهید. خروجی آن، بدون افشای داده، با مدل مرکزی تلفیق میشود. و اگر زمانی خواستید دادهتان را از مدل حذف کنید، فقط زیرمدلی که روی داده شما آموزش دیده بود از ترکیب نهایی خارج میشود، بینیاز از بازآموزی کامل مدل یا صرف منابع کلان.
چرا این مسئله مهم است؟
این قابلیت، بهظاهر فنی، پاسخی بالقوه به سه چالش کلیدی صنعت هوش مصنوعی است:
- مسئلهی مالکیت و رضایت داده: در شرایطی که دعواهای حقوقی ناشران، هنرمندان و پدیدآورندگان محتوا علیه غولهای هوش مصنوعی بالا گرفته، FlexOlmo مدلی از همکاری مسئولانه را پیشنهاد میدهد. دادهات را میخواهی بدهی؟ ایرادی ندارد. ولی اگر منصرف شدی، راهی برای پسگرفتن هست.
- چالشهای مربوط به دادههای حساس: سازمانها و نهادهایی که با دادههای حساس سر و کار دارند -از بانکها تا مؤسسات درمانی- حالا شاید بتوانند بدون افشای داده، در توسعه مدلها مشارکت کنند. البته هنوز نگرانیهایی درباره امکان بازسازی داده از مدل نهایی باقی است که نیازمند ترکیب این روش با رویکردهایی نظیر differential privacy است.
- مسیرهای جدید برای مدلهای باز و مشارکتی: اگر دادهها نقطه گلوگاه ساخت مدلهای هوش مصنوعیاند -چنانکه سِوون مین، پژوهشگر ارشد Ai2 و معمار اصلی این پروژه، میگوید – پس شاید راه حل نه در انحصار، بلکه در طراحی مشارکتهای هوشمندانه باشد. مشارکتهایی که به زعم سِوون مین از حریم خصوصی و حق انتخاب محافظت میکنند.
آیا این یک انقلاب است یا فقط یک امکان تازه؟
FlexOlmo هنوز در مراحل آزمایشگاهی است. مدل ۳۷ میلیارد پارامتریای که بر مبنای آن ساخته شده، حدود یکدهم بزرگترین مدلهای منبعباز موجود است. اما همین هم نشان داده که در مقایسه با مدلهای دیگر -چه مدلهای منفرد، چه مدلهای ترکیبشدهی مستقل- عملکرد بهتری دارد.
این یعنی FlexOlmo مثل خیلی از پروژههای هوش مصنوعی امروز دنیا فقط یک ژست اخلاقی نیست، بلکه پروژهای است که واقعا کار میکند. و اگر قرار باشد آینده مدلهای زبانی بزرگ بهسمت ماژولار شدن، انعطافپذیری در آموزش، و بازاندیشی در زنجیره ارزش داده حرکت کند، شاید این نقطهعطف بهیاد ماندنیای باشد.
دنیایی که در آن میتوان «نه» گفت!
برای سالها، رابطه میان صاحبان داده و توسعهدهندگان مدلهای هوش مصنوعی چیزی شبیه به «همه یا هیچ» بوده: یا دادههایت را بده، یا از قطار جا بمان. اما FlexOlmo الگویی پیشنهاد میدهد که در آن میتوان مشارکت کرد و همچنان حق خروج داشت.
و شاید این همان چیزی باشد که آینده به آن نیاز دارد: نه مدلهایی که فقط هوشمندتر میشوند، بلکه مدلهایی که مسئولترند.