داتا

تازه‌ها از دنیای داده و
هوش مصنوعی

مردم واقعاً چطور از هوش مصنوعی استفاده می‌کنند؛ نتایج شگفت‌انگیز از تحلیل ۱۰۰تریلیون توکن

در یک سال گذشته، مکرراً به ما گفته شده که هوش مصنوعی در حال ایجاد انقلابی در بهره‌وری است؛ کمک به نوشتن ایمیل‌ها، تولید کد و خلاصه‌سازی اسناد. اما اگر واقعیتِ نحوه استفاده مردم از هوش مصنوعی کاملاً متفاوت از آن چیزی باشد که به ما گفته‌اند چطور؟

یک مطالعه داده‌محور توسط OpenRouter با تحلیل بیش از ۱۰۰ تریلیون توکن که در واقع معادل میلیاردها مکالمه و تعامل با مدل‌های زبانی بزرگ (LLM) مانند چت جی‌پی‌تی، کلاود و ده‌ها مدل دیگر است، پرده از نحوه استفاده واقعی از هوش مصنوعی در دنیای واقعی برداشته است. یافته‌های این تحقیق بسیاری از فرضیات درباره انقلاب هوش مصنوعی را به چالش می‌کشد.

اوپن‌روتر (OpenRouter) یک پلتفرم استنتاج هوش مصنوعی چندمدلی است که درخواست‌ها را بین بیش از ۳۰۰ مدل از ۶۰ ارائه‌دهنده مختلف، از اوپن‌ای‌آی و آنتروپیک گرفته تا جایگزین‌های متن‌باز مانند دیپ‌سیک و لاما، توزیع می‌کند.

باتوجه‌به اینکه بیش از ۵۰ درصد از استفاده این پلتفرم خارج از ایالات متحده است و به میلیون‌ها توسعه‌دهنده در سراسر جهان خدمات می‌دهد، این پلتفرم دیدگاهی ویژه از نحوه به‌کارگیری هوش مصنوعی در مناطق جغرافیایی مختلف، کاربردها و انواع کاربران ارائه می‌دهد.

نکته مهم این است که این مطالعه فراداده‌های میلیاردها تعامل را بدون دسترسی به متن اصلی مکالمات تحلیل کرده است تا حریم خصوصی کاربران حفظ شود و درعین‌حال الگوهای رفتاری آشکار شوند.

استفاده‌ای که کسی انتظارش را نداشت: «نقش‌آفرینی»

شاید تعجب‌برانگیزترین کشف این باشد: بیش از نیمی از استفاده مدل‌های هوش مصنوعی متن‌باز اصلاً برای بهره‌وری و کار نیست. بلکه برای نقش‌آفرینی (Roleplay) و داستان‌سرایی خلاقانه است.

بله درست خواندید. درحالی‌که مدیران فناوری از پتانسیل هوش مصنوعی برای متحول کردن کسب‌وکارها دم می‌زنند، کاربران اکثر وقت خود را صرف مکالمات شخصیت‌محور، داستان‌های تعاملی و سناریوهای بازی‌گونه می‌کنند. حداقل در استفاده از مدل‌های اوپن سورس.

بیش از ۵۰ درصد از تعاملات با مدل‌های متن‌باز در این دسته‌بندی قرار می‌گیرد که حتی از کمک به برنامه‌نویسی هم پیشی گرفته است.

در این گزارش آمده است: «این موضوع فرضیه‌ای را که می‌گوید LLMها عمدتاً برای نوشتن کد، ایمیل یا خلاصه‌کردن استفاده می‌شوند، رد می‌کند. در واقعیت، بسیاری از کاربران برای هم‌نشینی (Companionship) یا اکتشاف با این مدل‌ها تعامل دارند.»

این فقط یک چت معمولی نیست. داده‌ها نشان می‌دهند که کاربران با مدل‌های هوش مصنوعی به‌عنوان موتورهای ساختاریافته نقش‌آفرینی رفتار می‌کنند؛ به‌طوری‌که ۶۰ درصد از توکن‌های نقش‌آفرینی در سناریوهای خاص بازی و زمینه‌های نوشتاری خلاقانه قرار می‌گیرند. این یک مورداستفاده عظیم و عمدتاً نامرئی است که در حال تغییر نحوه تفکر شرکت‌های هوش مصنوعی درباره محصولاتشان است.

رشد برق‌آسای برنامه‌نویسی

درحالی‌که نقش‌آفرینی بر استفاده از مدل‌های متن‌باز تسلط دارد، برنامه‌نویسی سریع‌ترین رشد را در بین تمام دسته‌بندی‌های مدل‌های هوش مصنوعی داشته است. در ابتدای سال ۲۰۲۵، درخواست‌های مرتبط با کدنویسی تنها ۱۱ درصد از کل استفاده هوش مصنوعی را تشکیل می‌دادند. تا پایان سال، این رقم به بیش از ۵۰ درصد افزایش یافت.

این رشد نشان‌دهنده ادغام عمیق‌تر هوش مصنوعی در توسعه نرم‌افزار است. میانگین طول پرامپت‌ها برای وظایف برنامه‌نویسی چهار برابر شده و از حدود ۱۵۰۰ توکن به بیش از ۶۰۰۰ توکن رسیده است؛ برخی درخواست‌های مرتبط با کد حتی از ۲۰,۰۰۰ توکن فراتر می‌روند که تقریباً معادل واردکردن کل کدهای یک پروژه به مدل برای تحلیل است.

برای درک بهتر، درخواست‌های برنامه‌نویسی اکنون برخی از طولانی‌ترین و پیچیده‌ترین تعاملات را در کل اکوسیستم هوش مصنوعی ایجاد می‌کنند. توسعه‌دهندگان دیگر فقط تکه کدهای ساده نمی‌خواهند؛ آن‌ها جلسات پیچیده دیباگ، بررسی معماری و حل مسائل چندمرحله‌ای انجام می‌دهند.

مدل‌های کلاود شرکت آنتروپیک بر این فضا تسلط دارند و بیش از ۶۰ درصد از استفاده‌های مرتبط با برنامه‌نویسی را در بیشتر سال ۲۰۲۵ به خود اختصاص داده‌اند، هرچند رقابت با پیشرفت گوگل، اوپن‌ای‌آی و جایگزین‌های متن‌باز در حال شدیدتر شدن است.

خیزش هوش مصنوعی چینی

یک افشاگری بزرگ دیگر: مدل‌های هوش مصنوعی چینی اکنون حدود ۳۰ درصد از استفاده جهانی را تشکیل می‌دهند؛ تقریباً سه برابر سهم ۱۳ درصدی آن‌ها در ابتدای سال ۲۰۲۵.

مدل‌هایی از دیپ‌سیک، Qwen (علی‌بابا) و Moonshot AI به‌سرعت محبوبیت یافته‌اند؛ به‌طوری‌که دیپ‌سیک به‌تنهایی در طول دوره مطالعه ۱۴.۳۷ تریلیون توکن پردازش کرده است. این نشان‌دهنده تغییری بنیادین در چشم‌انداز جهانی هوش مصنوعی است، جایی که شرکت‌های غربی دیگر تسلط بلامنازع ندارند.

سهم زبان‌ها بر اساس پرامپت‌های نوشته شده
سهم توکن‌ها (%)زبان
۸۲.۸۷انگلیسی
۴.۹۵چینی (ساده شده)
۲.۴۷روسی
۱.۴۳اسپانیایی
۱.۰۳تایلندی
۷.۲۵دیگر زبان‌ها

زبان چینی ساده‌شده (Simplified Chinese) اکنون دومین زبان رایج برای تعاملات هوش مصنوعی در سطح جهان با ۵ درصد از کل استفاده است (پس از انگلیسی با ۸۳ درصد). سهم کلی آسیا از هزینه‌های هوش مصنوعی بیش از دوبرابر شده و از ۱۳ درصد به ۳۱ درصد رسیده است و سنگاپور پس از ایالات متحده به‌عنوان دومین کشور بزرگ از نظر میزان استفاده ظاهر شده است.

ظهور هوش مصنوعی «عاملی» 

این مطالعه مفهومی را معرفی می‌کند که فاز بعدی هوش مصنوعی را تعریف خواهد کرد: استنتاج عاملی (Agentic inference). این بدان معناست که مدل‌های هوش مصنوعی دیگر فقط به سؤالات تکی پاسخ نمی‌دهند، بلکه وظایف چندمرحله‌ای را اجرا می‌کنند، ابزارهای خارجی را فراخوانی می‌کنند و در طول مکالمات طولانی استدلال می‌کنند.

سهم تعاملات هوش مصنوعی که به‌عنوان «بهینه‌شده برای استدلال» طبقه‌بندی می‌شوند، از نزدیک به صفر در اوایل ۲۰۲۵ به بیش از ۵۰ درصد در پایان سال جهش پیدا کرد. این نشان‌دهنده تغییری اساسی از هوش مصنوعی به‌عنوان یک تولیدکننده متن به هوش مصنوعی به‌عنوان یک «عامل خودمختار» باقابلیت برنامه‌ریزی و اجرا است.

محققان توضیح می‌دهند: «درخواست میانه (Median) از یک LLM دیگر یک سؤال ساده یا دستور ایزوله نیست. در عوض، بخشی از یک حلقه ساختاریافته و عامل‌گونه است که ابزارهای خارجی را فراخوانی می‌کند، روی وضعیت استدلال می‌کند و در بسترهای طولانی‌تر تداوم می‌یابد.»

به این صورت فکر کنید: به‌جای اینکه از هوش مصنوعی بخواهید «یک تابع بنویس»، اکنون از آن می‌خواهید «این پایگاه کد را دیباگ کن، گلوگاه عملکردی را شناسایی کن و راهکار را پیاده‌سازی کن» و واقعاً می‌تواند این کار را انجام دهد.

اثر «کفش شیشه‌ای» سیندرلا

یکی از جذاب‌ترین بینش‌های این مطالعه مربوط به حفظ کاربر است. محققان پدیده‌ای را کشف کردند که آن را اثر سیندرلا یا «کفش شیشه‌ای» می‌نامند. پدیده‌ای که در آن مدل‌های هوش مصنوعی که «اولین حل‌کننده» یک مشکل حیاتی هستند، وفاداری پایدار در کاربر ایجاد می‌کنند.

وقتی یک مدلِ تازه منتشر شده کاملاً با یک نیاز برآورده نشده مطابقت پیدا می‌کند، همان «کفش شیشه‌ای» استعاری، آن کاربران اولیه بسیار طولانی‌تر از پذیرندگان بعدی به آن مدل وفادار می‌مانند. برای مثال، گروه کاربران (Cohort) ژوئن ۲۰۲۵ مدل Gemini 2.5 Pro گوگل، حدود ۴۰ درصد از کاربران خود را در ماه بعد هم حفظ کردند که به طور قابل‌توجهی بالاتر از گروه‌های بعدی بود.

این موضوع تصور متعارف درباره رقابت هوش مصنوعی را به چالش می‌کشد. «اولین بودن» مهم است، اما به طور خاص، اولین بودن در «حل یک مشکلِ باارزش»، یک مزیت رقابتی بادوام ایجاد می‌کند. کاربران این مدل‌ها را در جریان کاری خود جای می‌دهند و تغییردادن آن را هم از نظر فنی و هم رفتاری پرهزینه می‌کنند.

هزینه آن‌قدرها هم که فکر می‌کنید مهم نیست

شاید برخلاف انتظار، یافته‌های این پژوهش، نشان می‌دهد که میزان مصرف هوش مصنوعی وابستگی کمی به قیمت دارد؛ به‌طوری‌که با ۱۰ درصد ارزان‌تر شدن خدمات، استفاده از آن‌ها تنها حدود ۰.۵ تا ۰.۷ درصد رشد می‌کند.

مدل‌های ممتاز (Premium) از آنتروپیک و اوپن‌ای‌آی با قیمت ۲ تا ۳۵ دلار به‌ازای هر میلیون توکن همچنان استفاده بالایی دارند، درحالی‌که گزینه‌های ارزان‌قیمت مانند دیپ‌سیک و Gemini Flash گوگل با مقیاسی مشابه و قیمت کمتر از ۰.۴۰ دلار به‌ازای هر میلیون توکن عمل می‌کنند. هر دو گروه با موفقیت هم‌زیستی دارند.

گزارش نتیجه‌گیری می‌کند: «به نظر می‌رسد بازار LLM هنوز مانند یک کالای مصرفی عمومی (Commodity) رفتار نمی‌کند. کاربران هزینه را با کیفیت استدلال، قابلیت اطمینان و وسعت توانایی‌ها می‌سنجند.»

این بدان معناست که هوش مصنوعی حداقل فعلاً به رقابتی برای رسیدن به پایین‌ترین قیمت وارد نشده است. کیفیت، قابلیت اطمینان و توانایی همچنان ارزش پرداخت هزینه بیشتر را دارند.

معنای این برای آینده چه معنایی دارد

مطالعه OpenRouter تصویری از استفاده واقعی هوش مصنوعی ترسیم می‌کند که بسیار پیچیده‌تر و دقیق‌تر از روایت‌های صنعت است. بله، هوش مصنوعی در حال تغییر برنامه‌نویسی و کارهای حرفه‌ای است. اما همچنین از طریق نقش‌آفرینی و کاربردهای خلاقانه، دسته‌بندی‌های کاملاً جدیدی از تعامل انسان و کامپیوتر ایجاد می‌کند.

بازار از نظر جغرافیایی در حال تنوع است و چین به‌عنوان یک نیروی اصلی در حال ظهور است. فناوری از تولید متن ساده به استدلال پیچیده و چندمرحله‌ای در حال تکامل است. و وفاداری کاربر کمتر به اولین بودن در بازار بستگی دارد و بیشتر به اولین بودن در حل واقعی یک مشکل وابسته است.

همان‌طور که گزارش اشاره می‌کند: «روش‌هایی که مردم از LLMها استفاده می‌کنند همیشه با انتظارات همسو نیست و از کشوری به کشور دیگر، ایالتی به ایالت دیگر و موردی به مورد دیگر به طور قابل‌توجهی متفاوت است.»

درک این الگوهای دنیای واقعی، نه فقط نمرات بنچمارک یا ادعاهای بازاریابی، برای ادغام بیشتر هوش مصنوعی در زندگی روزمره حیاتی خواهد بود. شکاف بین اینکه ما فکر می‌کنیم هوش مصنوعی چگونه استفاده می‌شود و اینکه واقعاً چگونه استفاده می‌شود، عمیق‌تر از آن است که اکثر مردم تصور می‌کنند. این مطالعه به پر کردن این شکاف کمک می‌کند.

منبع: State of AI | OpenRouter

تحلیل‌های راهبردی و ترندها

روتیتر را وارد کنید.

به‌روزرسانی MCP چگونه امنیت را همزمان با مقیاس‌پذیری زیرساخت تقویت می‌کند؟

آخرین به‌روزرسانی در استاندارد MCP با ایجاد لایه‌های امنیتی قوی‌تر، زیرساخت سازمانی را مقاوم‌تر کرده و باعث می‌شود عامل‌های هوش مصنوعی از «مرحله آزمایشی» به «مرحله بهره‌برداری واقعی» برسند.

طی یک سال از ایجاد این پروژه متن‌باز توسط آنتروپیک، نسخه تازه‌ای از این استاندارد منتشر شد؛ نسخه‌ای که مستقیما به سراغ گره‌هایی می‌رود که عامل‌های مولد را در وضعیت آزمایشی نگه می‌داشت. این به‌روزرسانی که با حمایت AWS، مایکروسافت و گوگل‌کلاد توسعه یافته، از گردش‌کارهای طولانی‌مدت پشتیبانی می‌کند و کنترل‌های امنیتی سخت‌گیرانه‌تری ارائه می‌دهد.

به این ترتیب بازار از یکپارچه‌سازی‌های شکننده و سفارشی فاصله می‌گیرد و این برای سازمان‌ها فرصتی است تا عامل‌های هوش مصنوعی را بدون ایجاد هزینه فنی بزرگ، روی مخازن داده سازمانی مستقر کنند.

MCP از یک کنجکاوی به زیرساختی عملیاتی تبدیل می‌شود

روایت حالا از «چت‌بات‌های آزمایشی» به «یکپارچه‌سازی‌های ساختاری» تغییر کرده است. از سپتامبر تاکنون، رجیستری MCP بیش از ۴۰۷ درصد رشد داشته و اکنون تقریباً دو هزار سرور را شامل می‌شود.

ساتیاجیت موندکال، مدیر ارشد فناوری در Hexaware، می‌گوید: «یک سال پس از معرفی Model Context Protocol توسط آنتروپیک، MCP از یک ابزار آزمایشی توسعه‌دهندگان به روشی عملی برای اتصال AI به سیستم‌هایی که کار و داده در آن‌ها جریان دارد تبدیل شده است.»

مایکروسافت هم با افزودن پشتیبانی محلی MCP به ویندوز ۱۱ این تغییر را تأیید کرده و استاندارد را مستقیماً به لایه سیستم‌عامل منتقل کرده است.

این استانداردسازی نرم‌افزاری هم‌زمان با یک توسعه سخت‌افزاری فزاینده در حال وقوع است. موندکال به «بی‌سابقه بودن توسعه زیرساخت» اشاره می‌کند و از برنامه چندگیگاواتی اوپن‌ای‌آی به نام Stargate یاد می‌کند. او می‌گوید این‌ها نشانه‌های روشنی است که هم توانایی‌های AI و هم داده‌های موردنیاز آن، با سرعت زیادی در حال مقیاس گرفتن هستند.

MCP نقش لوله‌کشی این منابع عظیم محاسباتی را بازی می‌کند؛ و همان‌طور که موندکال می‌گوید: «هوش مصنوعی فقط به‌اندازه داده‌ای مفید است که بتواند به‌صورت امن به آن دسترسی داشته باشد.»

تا امروز، اتصال یک LLM به یک پایگاه‌داده اغلب بی‌درنگ و کوتاه‌مدت بود. این برای یک چت‌بات که وضعیت هوا را چک می‌کند مناسب است؛ اما برای مهاجرت یک کدبیس یا تحلیل پرونده‌های سلامت کار نمی‌کند.

قابلیت جدید «Tasks» در SEP-1686 (یکی از به روزرسانی‌های MCP) این وضعیت را تغییر می‌دهد. این قابلیت یک روش استاندارد برای رهگیری کار در اختیار سرورها قرار می‌دهد؛ طوری که کلاینت‌ها می‌توانند وضعیت را چک کنند یا اگر مشکلی پیش آمد، کار را لغو کنند. تیم‌های عملیاتی که زیرساخت را خودکارسازی می‌کنند، به عامل‌هایی نیاز دارند که بتوانند ساعت‌ها بدون Timeout شدن اجرا شوند. پشتیبانی از وضعیت‌هایی مثل working یا input_required بالاخره تاب‌آوری را به گردش‌کارهای عامل‌محور اضافه می‌کند.

به‌روزرسانی استاندارد MCP امنیت را بهبود می‌دهد

برای مدیران امنیت، عامل‌های هوش مصنوعی اغلب شبیه سطح حمله‌ای بزرگ و خارج از کنترل به نظر می‌رسند. این خطرات کاملاً واقعی‌اند؛ «پژوهشگران امنیت سایبری تا میانه سال ۲۰۲۵ حدود ۱۸۰۰ سرور MCP را پیدا کردند که به‌صورت عمومی در اینترنت قرار داشتند»؛ رقمی که نشان می‌دهد استفاده سازمانی از آن بسیار گسترده شده است.

موندکال هشدار می‌دهد که «اگر پروتکل مدل زمینه بد اجرا شود، MCP تبدیل به پراکندگی یکپارچه‌سازی و سطح حمله بزرگ‌تر می‌شود.»

برای حل این مشکل، نگهدارندگان پروژه سراغ اصطکاک موجود در Dynamic Client Registration رفتند. راهکار جدید، «ثبت‌نام بر اساس URL» در SEP-991 است؛ روشی که در آن کلاینت‌ها با ارائه یک شناسه یکتا که به یک سند متادیتای خودمدیریتی اشاره دارد، روند اداری پیچیده را کاهش می‌دهند.

قابلیت «URL Mode Elicitation» در SEP-1036 نیز اضافه شده است. این قابلیت به یک سرور – مثلاً سروری که پرداخت‌ها را مدیریت می‌کند – اجازه می‌دهد کاربر را برای دریافت اطلاعات حساس به یک پنجره مرورگر امن منتقل کند. عامل هرگز رمز را نمی‌بیند؛ فقط توکن را دریافت می‌کند. این کار، جداسازی کامل اطلاعات محرمانه را ممکن می‌کند که برای تطابق با استاندارد PCI غیرقابل مذاکره است.

هریش پری، معاون ارشد در Okta، باور دارد این ویژگی‌ها «نظارت و کنترل دسترسی لازم برای ساخت یک اکوسیستم امن و باز برای AI» را فراهم می‌کنند.

ویژگی دیگری که کمتر توجه گرفته، «Sampling with Tools» در SEP-1577 است. سرورها پیش‌تر فقط داده را واکشی می‌کردند؛ اما اکنون می‌توانند با استفاده از توکن کلاینت، چرخه‌های مستقل اجرا کنند. مثلاً یک «سرور تحقیق» می‌تواند زیرعامل‌هایی ایجاد کند تا اسناد را جستجو کنند و گزارشی بسازند؛ بدون نیاز به کدنویسی سفارشی در سمت کلاینت. این قابلیت، استدلال را به داده نزدیک‌تر می‌کند.

بااین‌حال، ساخت این اتصال‌ها فقط قدم اول است. مایور اوپادهیایا، مدیرعامل APIContext، می‌گوید: «سال اول پذیرش MCP نشان داد که هوش مصنوعی سازمانی با بازنویسی شروع نمی‌شود؛ با افشا و قابل‌دسترسی کردن شروع می‌شود.»

اما چالش بعدی، «قابلیت مشاهده» است. اوپادهیایا توضیح می‌دهد: «موج بعدی درباره مشاهده‌پذیری است؛ سازمان‌ها باید uptime سرورهای MCP و جریان احراز هویت را با همان جدیتی پایش کنند که امروز APIها را پایش می‌کنند.»

نقشه راه MCP نیز همین را نشان می‌دهد؛ به‌روزرسانی‌هایی در مسیر «قابلیت اطمینان و مشاهده‌پذیری» اضافه می‌شود تا اشکال‌زدایی آسان‌تر شود. اگر MCP را «نصب کن و فراموش کن» فرض کنید، خودتان را به دردسر انداخته‌اید. موندکال هم تأیید می‌کند که درس سال اول، «جفت‌کردن MCP با هویت قوی، RBAC و ابزارهای مشاهده‌پذیری از همان روز اول» است.

صف طولانی شرکت‌های بزرگ که MCP را برای زیرساخت خود پذیرفته‌اند

یک پروتکل به‌اندازه کاربرانش ارزش دارد. فقط در یک سال، تعداد سرورهای MCP تقریباً به دو هزار رسید. مایکروسافت از آن برای اتصال گیت‌هاب،  آژر و M365 استفاده می‌کند. AWS آن را به Bedrock اضافه کرده و گوگل کلاد هم در سراسر جمینای از آن پشتیبانی می‌کند.

این کار، وابستگی به فروشنده را کاهش می‌دهد. یک کانکتور Postgres که برای MCP ساخته شده، به‌صورت نظری باید بدون بازنویسی روی جمینای، چت‌جی‌پی‌تی یا یک عامل داخلی مبتنی بر آنتروپیک کار کند.

مرحله «لوله‌کشی» در AI مولد در حال تثبیت است؛ و استانداردهای باز در موضوع اتصال‌پذیری برنده شده‌اند. رهبران فناوری باید APIهای داخلی را از نظر سازگاری با MCP بررسی کنند؛ با تمرکز بر قابل‌نمایش کردن و قابل‌دسترسی کردن، نه بازنویسی کامل. همچنین باید مطمئن شوند که ثبت‌نام جدید مبتنی بر URL با چارچوب‌های موجود مدیریت دسترسی و هویت (IAM) هماهنگ است.

هم‌زمان، لازم است پروتکل‌های پایش از همین امروز مستقر شوند. این به‌روزرسانی MCP با زیرساخت فعلی سازگار است؛ اما قابلیت‌های جدید تنها مسیری هستند که عامل‌ها را وارد گردش کارهای حساس و مقرراتی می‌کنند و امنیت را تضمین خواهند کرد.

منبع: AINEWS

the blob

روتیتر را وارد کنید.

تنها یک شرکت هوش مصنوعی وجود دارد: «توده»

نویسنده: استیون لیوی

درحالی‌که انویدیا، اوپن‌ای‌آی، گوگل و مایکروسافت شراکت‌ها و قراردادهایی با هم منعقد می‌کنند، صنعت هوش مصنوعی بیشتر شبیه یک ماشین واحدِ به‌هم‌پیوسته به نظر می‌رسد. این برای ما چه معنایی دارد؟

همه چیز، مانند بسیاری از اتفاقات دیگر، با ایلان ماسک آغاز شد. در اوایل دهه ۲۰۱۰، او دریافت که هوش مصنوعی در مسیری قرار دارد که شاید به قدرتمندترین فناوری تمام دوران تبدیل شود. اما او بدگمانی عمیقی داشت که اگر این فناوری تحت کنترل نیروهای قدرتمندِ سودمحور درآید، بشریت رنج خواهد برد. ماسک یکی از سرمایه‌گذاران اولیه «دیپ‌مایند» بود. آزمایشگاهی مستقر در انگلستان که به دنبال هوش مصنوعی عمومی (AGI) از دیگران جلوتر بود. پس از خرید دیپ‌مایند توسط گوگل در سال ۲۰۱۴، ماسک رابطه خود را با این سازمان تحقیقاتی قطع کرد. او احساس می‌کرد ایجاد یک نیروی متقابل که انگیزه‌اش منافع انسانی باشد و نه سود، امری ضروری است؛ بنابراین به ایجاد OpenAI کمک کرد. زمانی که در مراسم رونمایی این شرکت در سال ۲۰۱۵ با ماسک و سم آلتمن مصاحبه کردم، آن‌ها قاطعانه اصرار داشتند که سود سهام‌داران عاملی در تصمیم‌گیری‌هایشان نخواهد بود.

به زمان حال بیاییم. ارزش اوپن‌ای‌آی نیم تریلیون دلار، یا شاید ۷۵۰ میلیارد دلار است و بخش انتفاعی آن به یک «شرکت عام‌المنفعه» تبدیل شده است. ماسک، ثروتمندترین انسان جهان، شرکت هوش مصنوعی انتفاعی خود، xAI را اداره می‌کند. این هم از عاقبت رؤیای آزمایشگاه‌های غیرانتفاعی که قرار بود پیشرو باشند. اما حتی بدبینِ‌ترین پیشگوهای یک دهه پیش هم احتمالاً تصور نمی‌کردند که هوش مصنوعی پیشرفته توسط یک هیولای واحد، درهم‌تنیده و پول‌پرست کنترل شود.

این چیزی است که امروز با آن روبرو هستیم. نگران‌کننده‌تر اینکه، این مجتمعِ به‌هم‌پیوسته تا حدی توسط قدرت‌هایی بزرگ تأمین مالی می‌شود و تحت حمایت دولت ایالات متحده است که به نظر می‌رسد «پیروزی» را بر «ایمنی» اولویت می‌دهد. این مجموعه پر زرق‌وبرق و پیچیده از شراکت‌ها، ادغام‌ها، توافقات مالی، ابتکارات دولتی و سرمایه‌گذاری‌های استراتژیک، سرنوشت تقریباً هر بازیگر بزرگی در سپهر هوش مصنوعی را به هم پیوند می‌دهد. من این موجودیت را «توده» (The Blob) می‌نامم.

جعبه سیاه «توده»

توصیف کامل اتصالات درهم‌تنیده این موجودیت‌ها فراتر از محدودیت کلمات من در اینجا خواهد بود. حتی تهیه یک لیست خلاصه نیز مستلزم استفاده از – درست حدس زدید – هوش مصنوعی است. خواننده عزیز، اعتراف می‌کنم: من به سراغ GPT-5 رفتم تا برای درک تصویر کامل به من کمک کند. نوشتم: «سرم دارد گیج می‌رود» و غرورم را زیر پا گذاشتم تا از این «طوطی تصادفیِ ازخودراضی» لیست جامعی از معاملات ابری، سرمایه‌گذاری‌ها، مشارکت‌ها و توافقات دولتی بخواهم. دو دقیقه و ۳۵ ثانیه طول کشید تا این مدل زبانی بزرگ (LLM) که معمولاً سریع است، با پاسخ‌هایی بازگردد. ربات که همیشه چاپلوس است، گفت: «اشتباه نمی‌کنی که سرگیجه‌آور است. این اساساً یک ماشینِ عظیم و دایره‌وارِ پول و پردازش است.»

یادداشت به GPT: تو اجازه نداری متنِ این مقاله را بنویسی. اظهارنظر را به من بسپار.

به‌هرحال وقتی نظریه‌پردازی‌اش تمام شد، GPT-5 شروع کرد به تولید چندین هزار کلمه، همراه با نمودارهای جریان، فلش‌ها و ارجاعات متقابل به ده‌ها توافقِ یا به‌عبارت‌دیگر نان به هم قرض‌دادن؛ مانند ابتکار نمادین «استارگیت» (Stargate) که اوپن‌ای‌آی، اوراکل، انویدیا، سافت‌بانک و یک شرکت سرمایه‌گذاری ابوظبی را با حمایت دولت ایالات متحده به هم متصل می‌کند.

این هفته نمونه‌ای تازه‌تر ارائه شد: یک معامله پیچیده شامل انویدیا، مایکروسافت و آنتروپیک.

بیانیه مطبوعاتی مایکروسافت آن را در سه خط خلاصه می‌کند، مانند یک شعرِ سطح پایین به سبک آلن گینزبرگ: «آنتروپیک مدل Claude را روی آژر (Azure) مقیاس‌دهی می‌کند. آنتروپیک معماری انویدیا را اتخاذ می‌کند. انویدیا و مایکروسافت در آنتروپیک سرمایه‌گذاری می‌کنند.»

این معامله نشانه‌هایی از «توافق دایره‌ای» دارد که در آن پول بین شرکت‌ها ردوبدل می‌شود پیش از آنکه پای حتی یک مشتری در میان باشد. مایکروسافت حداقل ۵ میلیارد دلار در آنتروپیک سرمایه‌گذاری می‌کند (رقیب مستقیمِ شریک کلیدی خود) و اوپن‌ای‌آی و آنتروپیک متعهد شده‌اند که ۳۰ میلیارد دلار توان محاسباتی (Compute) از فضای ابری مایکروسافت خریداری کند. در همین حال، انویدیا در آنتروپیک سرمایه‌گذاری می‌کند و آنتروپیک متعهد می‌شود فناوری خود را روی تراشه‌های انویدیا توسعه دهد. بوم! انویدیا عمیق‌تر وارد کسب‌وکارهای مشتریان خود می‌شود. مایکروسافت ریسک وابستگی پیشین خود به اوپن‌ای‌آی را پوشش می‌دهد و ارزش آنتروپیک به ۳۵۰ میلیارد دلار می‌پرد. فقط دو ماه پیش، ارزش آن ۱۸۳ میلیارد دلار بود.

آنتروپیک فراتر از یک بیانیه مطبوعاتی در مورد این معامله اظهارنظر نکرد و خبرنگاران را به ویدئویی ارجاع داد که در آن سه مدیرعامل معامله را توضیح می‌دهند. رؤسای شرکت‌های «هایپر اسکیل» (Hyperscale) از راه دور شرکت می‌کنند. ظاهراً این معاملات آن‌قدر روتین شده‌اند که ارزش زحمت سوار هواپیما شدن برای اعلام حضوری آن‌ها را ندارند. در ویدئو، ساتیا نادلا از مایکروسافت در وسط تصویر ظاهر می‌شود و لبخند می‌زند، درحالی‌که جمله‌ای را بیان می‌کند که شاید شعارِ «توده» باشد: «ما به طور فزاینده‌ای مشتری یکدیگر خواهیم بود.» وقتی او جزئیات را شرح می‌دهد، دیگران سرهایشان را مانند عروسک‌های کله‌لرزان تکان می‌دهند. در سمت چپ، داریو آمودی، مدیرعامل آنتروپیک قرار دارد. آنتروپیک برخلاف گوگل، مایکروسافت یا متا، ابر (Cloud) اختصاصی یا جریان درآمدی غیرمرتبط با هوش مصنوعی ندارد، بنابراین اکنون مایکروسافت را به معاملات قبلیِ «سهام در برابر محاسبات» خود با آمازون و گوگل اضافه کرده است. هت‌تریک!

جنسن هوانگ از انویدیا، با آن کاپشن چرمی‌اش، این معامله را «رؤیایی که به حقیقت پیوسته» می‌نامد و توضیح می‌دهد که مدتی است چشم به آنتروپیک داشته و از اینکه این شرکت را به کتابِ قطورِ معاملاتش اضافه می‌کند، هیجان‌زده است. او می‌گوید: «ما در هر بنگاه اقتصادی در هر کشوری حضور داریم. اکنون این شراکتِ سه‌نفره ما را قادر می‌سازد تا هوش مصنوعی و Claude را به هر بنگاه و هر صنعتی در سراسر جهان ببریم.»

جالب اینکه دولت آمریکا آن‌ها را تشویق می‌کند. حتی وقتی صدها میلیارد دلار در میان است، دونالد ترامپ نمی‌پرسد «این چگونه ممکن است به عموم مردم آسیب برساند؟» بلکه بیشتر می‌پرسد «چطور می‌توانم سهمی از آن داشته باشم؟» اکنون، انویدیا اجازه دارد تراشه‌ها را به چین بفروشد و بخشی از سود را به دولت آمریکا برگرداند. سعودی‌ها که بودجه تلاش‌های متعدد هوش مصنوعی در ایالات متحده را تأمین کرده‌اند، توافق کردند که تراشه‌ها را با رعایت محدودیت‌هایی بخرند تا نسخه خودشان از یک «توده هوش مصنوعی» را بسازند. در نهایت، اگر اوضاع برای آن‌ها خوب پیش برود، شرکت‌های سعودی با شرکت‌های آمریکایی رقابت خواهند کرد.

صحبت از خوب پیش رفتن یا نرفتن شد، اگر حباب مالی هوش مصنوعی بترکد یا خالی شود، وجود این «توده» به این معنی است که همه با هم سقوط می‌کنند. همان‌طور که سوندار پیچای، مدیرعامل گوگل، این هفته گفت: «هیچ شرکتی مصون نخواهد بود، از جمله ما.»

همدردی با توسعه‌دهندگان

به‌نوعی نمی‌توان این شرکت‌های بزرگ را سرزنش کرد. آن‌ها احتمالاً ترجیح می‌دادند بدون تبدیل‌شدن به لخته‌هایی در این «توده»، تجارت خود را انجام دهند. اما تعقیب هوش مصنوعی در مقیاس کلان، بزرگ‌تر از آن است که حتی بزرگ‌ترین شرکت‌ها بتوانند به‌تنهایی از عهده آن برآیند. یکی از مدیران اجرایی در یک نهاد کلیدی هوش مصنوعی به من می‌گوید: «فکر نمی‌کنم هیچ‌کدام از ما درک کرده باشیم که قوانین مقیاس‌پذیری چقدر واقعی از آب در می‌آیند و بنابراین این چیزها چقدر توان محاسباتی نیاز خواهند داشت.» در نتیجه، او می‌گوید: «همه ما به شرکت‌های زیرساخت و ساخت‌وساز تبدیل شده‌ایم.» هزینه سرمایه‌ای عظیم برای ساخت مایل‌ها دیتاسنتر، نیازمند شراکت است. این موضوع همچنین شرکت‌هایی را که مدل‌های زبانی بزرگ (LLM) را آموزش می‌دهند و اداره می‌کنند، در وضعیتی «چندهمسری» با ارائه‌دهندگان خدمات ابری قرار می‌دهد.

پس «توده» را به‌عنوان یک کارتل کلاسیک در نظر نگیرید. به نظر نمی‌رسد دوز و کلکی مانند تبانی قیمت یا اشکال مشابهی از زدوبند در کار باشد. رقابت میان سازندگان LLM شدید است. همین هفته، گوگل مدل جدید و بهبودیافته Gemini خود را عرضه کرد و به نظر می‌رسد حداقل تا زمانی که ChatGPT، Claude یا Grok به‌روزرسانی شوند، پیشتاز بماند. انگیزه‌های انویدیا نیز قابل‌درک است: این شرکت به‌شدت می‌خواهد از کالایی‌شدن اجتناب کند و قفل‌کردن مشتریان کاملاً عقلانی است.

بااین‌حال، اتفاقات این هفته را در نظر بگیرید که برخی از «ایلومیناتی‌های هوش مصنوعی» در رویدادهای کاخ سفید گرد هم آمدند تا به محمد بن سلمان، ولیعهد بی‌رحم سعودی که نقش «پدرخوانده پول‌دار» دنیای هوش مصنوعی را بازی می‌کند، ادای احترام کنند. آیا آن رهبران برای این نمایش و سایر نمایش‌های تحت رهبری ترامپ به واشنگتن می‌روند تا نماینده شرکت‌های خود باشند؟ البته. اما آن‌ها همچنین به‌عنوان اعضای اصلی و منشوردارِ «توده» در آنجا حضور می‌یابند.

Wired

روتیتر را وارد کنید.

آیا هوش مصنوعی می‌تواند بازار آینده را پیش‌بینی کند؟

اگر یک مدل فقط داده‌های رفتاری را ببیند، بخشی از تصویر را از دست می‌دهد؛ اگر فقط داده‌های زمینه‌ای را ببیند نیز همین‌طور. اما وقتی این دو دنیا کنار هم قرار می‌گیرند، چه اتفاقی می‌افتد؟ برای یافتن پاسخ، سراغ یکی از تازه‌ترین پژوهش‌های علمی رفتیم؛ پژوهشی که هرچند درباره بازار فارکس است، اما یک حقیقت مهم برای ما دارد؛ حقیقتی که مستقیماً در کاربردهای بانکی نیز معنا پیدا می‌کند: ترکیب درست داده‌های ناهمگن می‌تواند دقت پیش‌بینی و کیفیت تصمیم‌سازی را چندبرابر کند.

مقاله جدیدی که نوامبر ۲۰۲۵ با عنوان «افزایش دقت پیش‌بینی فارکس: تأثیر مجموعه‌های متغیر هیبریدی» منتشر شده، دقیقاً همین هدف را دارد. در ادامه بررسی می‌کنیم که این سیستم چطور کار می‌کند و چرا ممکن است آینده الگوریتم‌های پیش‌بینی باشد.

سیستم معاملاتی شناختی (CATS): ترکیب دو نگاه به بازار

نویسندگان مقاله (وان کینگ و خوزه آمیگو) ادعا می‌کنند که نگاه تک‌بعدی به بازار (فقط قیمت یا فقط اخبار) کافی نیست. آن‌ها سیستمی طراحی کرده‌اند با نام Cognitive Algorithmic Trading Systems (CATS) که با استفاده از شبکه‌های عصبی LSTM، داده‌های رفتاری (قیمت و اندیکاتورها) را در کنار داده‌های زمینه‌ای (شاخص‌های اقتصادی)  به یک ساختار تحلیلی واحد تبدیل می‌کند.

شبکه‌های عصبی معمولی حافظه کوتاهی دارند. یعنی داده فعلی را می‌بینند و قبلی را فراموش می‌کنند. اما LSTM مثل تریدری است که یادش می‌آید «هفته پیش که نرخ بیکاری بالا رفت و RSI اشباع بود، قیمت پایین آمد». این حافظه برای سری‌های زمانی (مثل نمودار بورس) حیاتی است.

مسئله اول: چطور حمایت و مقاومت را به کامپیوتر فهماندند؟

تریدرها به‌صورت بصری قله‌ها و دره‌ها را روی چارت می‌بینند و خط می‌کشند. اما کامپیوتر چشم ندارد. این مقاله از روش پنجره‌بندی (Window Segmentation) استفاده کرده است:

  • ۲۰۰ روز گذشته بازار را به ۱۰ پنجره ۲۰ روزه تقسیم کردند.
  • در هر پنجره، ماکزیمم و مینیمم قیمت و آخرین قیمت را استخراج کردند.
  • سپس این نقاط را مرتب می‌کنند تا «نواحی» مهمی که قیمت قبلاً به آنها واکنش نشان داده را پیدا کنند. این یعنی شبیه‌سازی ریاضیِ کاری که چشم انسان انجام می‌دهد.

مسئله دوم: تشخیص واگرایی با ریاضی

واگرایی یکی از قوی‌ترین سیگنال‌های بازگشتی است. این الگوریتم با محاسبه شیب خطوط روند بین قله‌های قیمت و قله‌های اندیکاتور، واگرایی را می‌فهمد. اگر شیب قیمت مثبت باشد؛ ولی شیب اندیکاتور منفی، سیستم می‌گوید واگرایی نزولی داریم. این تبدیلِ یک مفهوم شهودی به عدد دقیق، خوراک اصلی LSTM است.

آزمایشگاهی برای ۱۰ مدل

نویسندگان برای اینکه بفهمند واقعاً کدام داده مهم‌تر است، ۱۰ مدل مختلف از مدل ۰ تا مدل ۹ را طراحی کردند:

  • مدل ۰ (پایه): فقط قیمت را می‌بیند.
  • مدل‌های میانی: فقط تکنیکال یا فقط فاندامنتال.
  • مدل ۹ (پیشرفته): ترکیبی از همه داده‌ها (تکنیکال، فاندامنتال، فیبوناچی، واگرایی، سطوح)

نتیجه مقاله نشان می‌دهد که اضافه‌کردن داده‌های فاندامنتال به مدل‌های تکنیکال، دقت پیش‌بینی را به شکل معناداری افزایش می‌دهد. در واقع، هوش مصنوعی وقتی «علت» (داده اقتصادی) را در کنار اثر آن (تکنیکال) می‌بیند، تصمیمات بسیار پخته‌تری می‌گیرد.

تا اینجا نگاهی کلی به سیستم معاملاتی شناختی (CATS) معرفی شده در مقاله «افزایش دقت پیش‌بینی فارکس» انداختیم. در ادامه، بخش‌های کلیدی و پیچیده این مقاله را باز می‌کنیم: از نحوه حل مشکل «ناهمگونی داده‌ها» گرفته تا فرمول‌بندی ریاضی واگرایی‌ها و مدیریت پوزیشن.

راهکاری برای مهندسی داده‌های ناهمگون

یکی از بزرگ‌ترین چالش‌ها در ساخت هوش مصنوعی پیش‌بینی بازار، ترکیب داده‌هایی با سن متفاوت است. داده‌های تکنیکال (قیمت) سریع و لحظه‌ای هستند، اما داده‌های فاندامنتال (مثل نرخ بیکاری) ماهانه یا فصلی منتشر می‌شوند. چطور این دو را به خورد یک شبکه عصبی بدهیم؟

نویسندگان از مجموعه‌ای شامل ۱۶ متغیر کلان اقتصادی استفاده کرده‌اند (۸ متغیر برای آمریکا و ۸ تا برای حوزه یورو). لیست این متغیرها شامل موارد سنگینی مثل:

  • تولید ناخالص داخلی (GDP)
  • نرخ بیکاری
  • نرخ بهره فدرال رزرو و بانک مرکزی اروپا
  • شاخص قیمت مصرف‌کننده (CPI)

ازآنجاکه این داده‌ها با تأخیر منتشر می‌شوند (Lag)، سیستم از روش «تکرار مقدار آخر» (Forward Filling) استفاده می‌کند. یعنی اگر نرخ بیکاری امروز اعلام شود، شبکه عصبی این عدد را برای تمام کندل‌های ۴ ساعته یا روزانه تکرار می‌کند تا زمانی که عدد جدید منتشر شود. همین یک متغیر ساده «سنِ داده» باعث شد مدل بفهمد اطلاعات تازه چه زمانی مهم‌تر است و قدیمی‌ها چه زمانی ارزششان کم می‌شود.

ریاضیات پشت پرده: تبدیل «واگرایی» به فرمول

تشخیص واگرایی (Divergence) برای انسان راحت است؛ اما برای کامپیوتر کابوس است. نویسندگان برای حل این مشکل از رگرسیون خطی استفاده کرده‌اند.

سیستم روی دو سری داده تمرکز می‌کند: ۱. قیمت و ۲. اسیلاتور  برای هر پنجره زمانی، شیب خط روند محاسبه می‌شود: شیب خط روند قیمت و شیب خط روند اسیلاتور.  در این حالت اگر قیمت صعودی و اندیکاتور نزولی باشد واگرایی نزولی است. ولی اگر قیمت نزولی و اندیکاتور صعودی باشد واگرایی صعودی است.

این روش باعث می‌شود مفاهیم انتزاعی تکنیکال به اعداد دقیق ریاضی تبدیل شوند که خوراک اصلی شبکه‌های LSTM است.

معماری شبکه: چرا LSTM؟

در دنیای واقعی، اثر یک اتفاق همیشه همان لحظه پدیدار نمی‌شود؛ در بازارهای مالی هم همین‌طور است. این سیستم از یک شبکه LSTM (Long Short-Term Memory) استاندارد استفاده می‌کند. اما چرا ترنسفورمر نه؟ مقاله استدلال می‌کند که LSTMها در مدیریت «وابستگی‌های زمانی» (Temporal Dependencies) در سری‌های زمانی مالی که نویز زیادی دارند، بسیار کارآمد و پایدار هستند. پیکربندی مدل این‌طور تشریح شده است:

ورودی‌ها نرمال‌سازی می‌شوند تا اعداد بزرگ GDP، اعداد کوچک قیمت را نبلعند. پنجره‌های زمانی به مدل اجازه می‌دهند الگوهای تاریخی را با وضعیت فعلی مقایسه کند. خروجی مدل صرفاً «قیمت آینده» نیست، بلکه جهت حرکت را پیش‌بینی می‌کند تا پیشنهاد خرید یا فروش تولید شود.

سناریوهای معاملاتی: خروجی ثابت یا شناور؟

پیش‌بینی قیمت یک چیز است، اقدام روی آن چیزی دیگر. این مقاله دو سناریوی شبیه‌سازی را اجرا کرده است: افق زمانی ثابت و مدیریت پویای پوزیشن. در افق زمانی ثابت، سیستم وارد معامله می‌شود و دقیقاً بعد از تعداد n کندل، خارج می‌شود. این مدل برای سنجش قدرت پیش‌بینی خالص هوش مصنوعی عالی است؛ ولی در دنیای واقعی کاربرد کمی دارد چون سودها را محدود می‌کند.

سناریوی دوم همان‌طور که گفتیم مدیریت پوزیشن پویا است. اینجا سیستم هوشمند می‌شود. سیستم از حد ضرر و حد سود استفاده می‌کند، اما نه به‌صورت تصادفی. حد ضرر بر اساس نوسان بازار یا سطوح حمایت/مقاومت محاسبه‌شده تعیین می‌شود. اگر هم جهت پیش‌بینیِ مدل تغییر کند (مثلاً از صعودی به نزولی)، پوزیشن فوراً بسته می‌شود، حتی اگر به حد سود نرسیده باشد.

نتیجه تست‌ها ازاین‌قرار است. مدل ۹ که هیبریدی کامل بود، در سناریوی پویا، عملکردی بسیار بهتر از مدل‌های ساده داشت و توانست در بازارهای رنج (درجا) هم ضررها را کنترل کند.

گفتنی است که در این پژوهش برای به حداکثر رساندن شرایط واقعی، حتی هزینه تراکنش نیز لحاظ شده است. نتایج نشان داد که مدل‌های صرفاً تکنیکال (که سیگنال‌های زیادی تولید می‌کنند) وقتی هزینه تراکنش کسر می‌شود، سوددهی‌شان به‌شدت افت می‌کند. اما مدل‌های هیبریدی (تکنیکال و فاندامنتال) چون سیگنال‌های کمتر اما دقیق‌تری می‌دهند، زیر بار هزینه‌های تراکنش کمر خم نمی‌کنند.

نتیجه‌گیری و سخن پایانی

در مقایسه نهایی بین ۱۰ مدل مختلف، مدل ۹ که ترکیبی از همه متغیرها بود، بالاترین نسبت شارپ و نسبت سورتینو را ثبت کرد.

این مقاله اثبات می‌کند که اگر معماری درستی داشته باشید «اطلاعات بیشتر» لزوماً به معنی «نویز بیشتر» نیست. هوش مصنوعی توانسته است شکاف بین تحلیل فاندامنتال (که کند و استراتژیک است) و تحلیل تکنیکال (که سریع و تاکتیکی است) را پر کند.

به زبان دیگر اگر می‌خواهیم به سمت سیستم‌های تصمیم‌ساز نسل جدید حرکت کنیم؛ سیستم‌هایی که در بانکداری به آن‌ها نیاز داریم، باید بتوانیم داده‌های ناهمگن را کنار هم بیاوریم، تازگی و ریتم داده را به مدل بفهمانیم، معماری‌هایی انتخاب کنیم که حافظهٔ بلندمدت رفتار را درک کنند و مهم‌تر از همه، خروجی پیش‌بینی را تبدیل به «رفتار تصمیم‌دار» کنیم.

منبع: [Arxiv:2511.16657 – King & Amigo, 2025]

روتیتر را وارد کنید.

تعریف AGI با عدد؛ معرفی مدل امتیازدهی شناختی

سال‌هاست تعریف هوش مصنوعی عمومی میان پژوهشگران مانند سایه‌ای روی دیوار جابه‌جا می‌شود؛ نسل‌های تازه مدل‌ها می‌رسند و ادعا می‌کنند پیشرفتی رقم زده‌اند؛ اما هنوز روشن نیست دقیقاً از چه سخن می‌گوییم. در چنین فضایی توجه‌ها به سمت پژوهشگرانی می‌رود که از نزدیک با چالش‌های فنی این حوزه درگیر بوده‌اند. مقاله تازه‌ای از دن هندریکس و جمعی از محققان برجسته، از جمله داون سانگ، یوشوا بنجیو، گری مارکوس و اریک اشمیت، تلاشی است برای ارائه تعریفی روشن‌تر و قابل‌اتکا از AGI.

این پژوهش که در اکتبر ۲۰۲۵ در arXiv منتشر شده، می‌کوشد به‌جای تکیه بر برداشت‌های مبهم، یک چارچوب کمی برای سنجش هوش عمومی مصنوعی ارائه کند؛ چارچوبی که توانایی‌های شناختی سیستم‌ها را با توانایی‌های یک فرد بزرگسال تحصیل‌کرده مقایسه می‌کند. نویسندگان یادآور می‌شوند که AGI هدف نهایی بسیاری از پژوهش‌های هوش مصنوعی است؛ سیستمی که بتواند طیف گسترده‌ای از وظایف ذهنی را در سطح انسان انجام دهد. بااین‌حال، این عنوان تاکنون فاقد تعریفی واحد بوده است.

برای رفع این ابهام، مقاله به نظریه کتل-هورن-کارول (CHC) تکیه می‌کند. مدلی شناخته‌شده در روان‌شناسی که بر پایه بیش از یک قرن آزمون‌های شناختی شکل‌گرفته و ساختار هوش انسان را در قالب سلسله‌مراتب توانایی‌ها توضیح می‌دهد. از هوش عمومی در رأس تا مهارت‌های جزئی‌تر در سطوح پایین‌تر.

امتیاز AGI و تقسیم‌بندی به ده حوزه شناختی

این مقاله نظریه CHC را به یک «امتیاز ۱۰۰ نمره‌ای AGI» تبدیل می‌کند؛ به این معنا که کسب امتیاز کامل نشان می‌دهد یک مدل هوش مصنوعی در تمام حوزه‌های شناختی به سطح یک انسان بزرگسال تحصیل‌کرده رسیده است. ساختار ارزیابی شامل ده حوزه شناختی است و هر کدام دارای ۱۰ امتیاز که بر پایه آزمون‌های روان‌سنجی انسانی طراحی شده‌اند. آزمون‌هایی شبیه تست‌های IQ اما طراحی‌شده برای مدل‌های هوش مصنوعی. این سنجش چندوجهی است و ورودی‌های متنی، تصویری، شنیداری و حتی ویدئویی را در بر می‌گیرد.

نتایج اولیه قابل توجه‌اند. مدل GPT-4 (2023) تنها ۲۷٪ از امتیاز کل را کسب کرده است؛ درحالی‌که GPT-5  در سال ۲۰۲۵ به ۵۷٪ رسیده است. این جهش اما یکنواخت نیست؛ برخی توانایی‌ها رشد چشمگیر داشته‌اند و برخی همچنان عقب مانده‌اند؛ به‌ویژه حافظه بلندمدت که در هر دو مدل تقریباً صفر ارزیابی شده است.

در بخش‌های بعدی مقاله، هر ده حوزه شناختی همراه با مثال‌ها، روش‌های سنجش و عملکرد مدل‌ها توضیح داده می‌شود؛ حوزه‌هایی که هر کدام ۱۰ درصد از کل امتیاز AGI را تشکیل می‌دهند.

حوزه‌های ده‌گانه شناختی

۱. دانش عمومی (K)

این حوزه شامل دانش عمومی موردانتظار از یک فرد تحصیل‌کرده است؛ از جمله عقل سلیم؛ علوم؛ علوم اجتماعی؛ تاریخ و فرهنگ. هر زیرشاخه ۲ امتیاز ارزش دارد.

نمونه پرسش‌ها اینگونه هستند: «اگر یک بطری شیشه‌ای روی بتن بیفتد چه می‌شود؟» یا «پنج ویژگی شخصیتی بزرگ چیست؟»  برای سنجش هم از معیارهایی مانند PIQA برای عقل سلیم و آزمون‌های AP برای علوم استفاده می‌شود. حد مطلوب عملکرد ۸۵٪ یا بیشتر است.

مدل GPT-4 در این حوزه امتیاز ۸٪ گرفته و در موضوعات فرهنگی عملکرد ضعیفی داشته است؛ GPT-5 به ۹٪ رسیده؛ اما همچنان در تشخیص ارجاعات فرهنگی مشکل دارد. نتایج نشان می‌دهد این مدل‌ها در حوزه‌هایی شبیه دانش دایرةالمعارفی قوی‌اند؛ اما هنوز در تشخیص ظرایف فرهنگی که از تجربه زیسته انسان می‌آید ضعف دارند.

ModelCommonsense (2%)Science (2%)Social Science (2%)History (2%)Culture (2%)Total
GPT-42%2%2%2%0%8%
GPT-52%2%2%2%1%9%

۲. خواندن و نوشتن (RW)

این حوزه شامل تخشیص حروف و واژه‌ها، درک متن، توانایی نوشتن و تسلط بر کاربرد زبان (انگلیسی) است. مثال‌ها شامل تشخیص حرف افتاده در یک واژه یا نگارش یک پاراگراف ساده است. برای سنجش درک مطلب از WinoGrande  استفاه شده و برای ارزیابی توانایی نگارش از استانداردهای GRE استفاده می‌شود.

مدل GPT-4 در این حوزه ۶٪ گرفته که این عملکرد ضعیف ناشی از مشکلاتی در پردازش جزئیات در سطح توکن (Token) و همچنین دشواری در پردازش و درک متن‌های بلند بود. اما GPT-5 به دلیل بهبود پنجره زمینه (Context Window) و دقت بالاتر ۱۰٪ را کامل دریافت کرده است. در این حوزه نویسندگان به پدیده «کوری زیررشته‌ای» (Sub-string Blindness) اشاره می‌کنند. این مشکل از آنجا ناشی می‌شود که مدل، متن را به‌صورت قطعه‌قطعه پردازش می‌کند و قادر نیست تغییرات کوچک را در کل ساختار متن به‌خوبی لحاظ و ارزیابی کند.

ModelLetters (1%)Reading (3%)Writing (3%)Usage (3%)Total
GPT-40%2%3%1%6%
GPT-51%3%3%3%10%

۳. فهم ریاضی (M)

این حوزه شامل حساب، جبر، هندسه، احتمال و حسابان است که هر بخش ۲ درصد امتیاز دارند. آزمون‌ها شامل GSM8K برای مبانی و MATH برای مسائل پیشرفته است.

مدل GPT-4 در این حوزه تنها ۴٪ گرفته؛ GPT-5 تمام امتیاز ۱۰٪ را کسب کرده است. مقاله اشاره دارد که مدل‌ها غالباً با تطبیق الگوها در ریاضیات عمل می‌کنند؛ به همین دلیل در مسائل تکراری قوی‌اند اما در مسائل جدید یا هندسه‌های غیرعادی ضعیف‌تر ظاهر می‌شوند.

ModelArithmetic (2%)Algebra (2%)Geometry (2%)Probability (2%)Calculus (2%)Total
GPT-42%1%0%1%0%4%
GPT-52%2%2%2%2%10%

۴. استدلال در لحظه (R)

مربوط به حل مسائل جدید بدون اتکا به الگوهای از پیش آموخته. زیرمهارت‌ها: قیاس ۲٪؛ استقرا ۴٪؛ نظریه ذهن ۲٪؛ برنامه‌ریزی ۱٪؛ انطباق ۱٪. مثال‌ها شامل پازل‌های منطقی؛ ماتریس‌های ریون و برنامه‌ریزی سفر است.

امتیاز GPT-4 در این بخش صفر درصد بوده است. البته GPT-5 به ۷٪ رسیده اما هنوز در انطباق امتیازش صفر است. آزمون‌های نظریه ذهن بررسی می‌کنند که آیا مدل می‌تواند باورهای متفاوت افراد را تشخیص دهد. GPT-5 برخی از این موارد را حل می‌کند.

ModelDeduction (2%)Induction (4%)Theory of Mind  (2%)Planning (1%)Adaptation (1%)Total
GPT-40%0%0%0%0%0%
GPT-52%2%2%1%0%7%

۵. حافظه کاری (WM)

حفظ و پردازش اطلاعات در لحظه. شامل حافظه متنی ۱٪؛ شنیداری ۲٪؛ بصری ۴٪؛ چندوجهی ۲٪. مثال‌ها: حفظ رشته اعداد؛ تغییر عبارات؛ پاسخ به سؤالات از یک فیلم کامل.

مدل GPT-4 در این حوزه ۲٪ و GPT-5 ۴٪ گرفته است. آزمون‌های ویدئویی یکی از سخت‌ترین بخش‌ها هستند؛ مدل‌ها توانایی «تماشای» یک فیلم کامل را ندارند و این محدودیت باعث خطای زیاد می‌شود. این حوزه ضعف مدل‌ها در نگه‌داری زمینه در گفتگو را توضیح می‌دهد.

ModelTextual (2%)Auditory (2%)Visual (4%)Cross-Modal (2%)Total
GPT-42%0%0%0%2%
GPT-52%0%1%1%4%

۶. حافظه بلندمدت؛ ذخیره‌سازی (MS)

توانایی یادگیری پایدار و تثبیت اطلاعات. شامل مهارت‌های تداعی‌گر ۴٪؛ معنادار ۳٪؛ و کلمه‌به‌کلمه ۳٪. آزمون‌ها شامل بازآوری پس از ۴۸ ساعت یا یک هفته است.

هر دو مدل در این بخش امتیاز صفر گرفته‌اند؛ مقاله آن را یک «نقص حیاتی» توصیف می‌کند. مدل‌های کنونی اطلاعات را تثبیت نمی‌کنند و یادگیری واقعی ندارند؛ به همین دلیل پس از فاصله زمانی طولانی عملکرد مشابه قبل و بدون تغییر دارند.

ModelAssociative (4%)Meaningful (3%)Verbatim (3%)Total
GPT-40%0%0%0%
GPT-50%0%0%0%

۷. حافظه بلندمدت؛ بازیابی (MR)

توانایی بیرون‌کشیدن دانش به شکل روان و دقیق. شامل روانی و سادگی بازیابی اطلاعات ۶٪ و مدیریت توهمات یا همان دقت دسترسی به اطلاعات ۴٪. مثال‌ها: تولید ایده در ۶۰ ثانیه یا تشخیص اطلاعات جعلی.

مدل GPT-4 و GPT-5 هر دو ۴٪ گرفته‌اند؛ روان بودن قابل‌قبول است اما میزان توهمات بالا باقی مانده است. این حوزه بادقت و راست‌گویی مدل مرتبط است.

ModelFluency (6%)Hallucinations (4%)Total
GPT-44%0%4%
GPT-54%0%4%

۸. پردازش بصری (V)

کار با تصاویر و ویدئو. شامل ادراک ۴٪؛ تولید ۳٪؛ استدلال ۲٪؛ اسکن ۱٪. مثال‌ها: کپشن‌نویسی؛ تشخیص ناهنجاری ویدئو.

 مدل GPT-4 صفر و GPT-5 تنها 4درصد کسب کرده است. برخی آزمون‌های تولید، ضعف در خلاقیت یا نقشه‌برداری فضایی را نشان می‌دهند.

ModelPerception (4%)Generation (3%)Reasoning (2%)Spatial Scanning (1%)Total
GPT-40%0%0%0%0%
GPT-52%2%0%0%4%

۹. پردازش شنیداری (A)

تشخیص؛ ترکیب و تحلیل صدا. شامل آوایی ۲٪؛ تشخیص گفتار ۲٪؛ صدا ۲٪؛ ریتم ۲٪؛ قضاوت موسیقی ۲٪.

GPT-4 صفر و  GPT-5 توانسته 6%  امتیاز کسب کند. آزمون‌های ریتم و زمان‌بندی همچنان یک چالش بزرگ برای مدل‌های هوش مصنوعی محسوب می‌شوند  و هر دو مدل ۰٪ کسب کرده‌اند. این ضعف به دلیل فاقد بودن حس زمان درونی (Intrinsic Sense of Time) در ساختار این مدل‌ها است. مدل‌ها در پردازش داده‌های متوالی قوی هستند، اما در درک ظرایف زمان‌بندی دقیق و ریتمیک مانند آنچه در موسیقی یا تشخیص سرعت صحبت وجود دارد، دچار مشکل می‌شوند.

ModelPhonetic (1%)Speech Recognition (4%)Voice (3%)Rhythmic (1%)Musical (1%)Total
GPT-40%0%0%0%0%0%
GPT-50%4%2%0%0%6%

۱۰. سرعت شناختی (S)

توانایی انجام سریع وظایف ساده شناختی شامل: PS-S: جستجوی ساده، PS-C: جستجوی پیچیده، Re: خواندن، Wr: نوشتن، Num: اعداد، SRT : زمان واکنش ساده، CRT: زمان واکنش انتخابی، IT: زمان استنتاج، CS: سرعت محاسبه و PF: یافتن الگو.

مدل‌های GPT-4 و GPT-5 هر دو ۳٪ گرفته‌اند؛ زمان‌های استنتاج (Inference Times) که مدت زمانی است که مدل برای تولید یک پاسخ صرف می‌کند، مانع اصلی افزایش امتیاز این مدل‌ها شده است. در نتیجه، در این حوزه که سرعت فاکتور حیاتی است، انسان‌ها همچنان برتری قاطعی نسبت به هوش مصنوعی دارند.

ModelPS-SPS-CReWrNumSRTCRTITCSPFTotal
GPT-40%0%1%1%1%0%0%0%0%0%3%
GPT-50%0%1%1%1%0%0%0%0%0%3%

این چارچوب روشی ساختارمند و قابل‌اندازه‌گیری برای ارزیابی هوش مصنوعی عمومی ارائه می‌دهد که به‌جای استفاده از معیارهای تخصصی محدود، توانایی‌های شناختی در زمینه‌های مختلف را از نظر گستردگی (تنوع) و عمق (مهارت) بررسی می‌کند.

هوش مصنوعی کنونی؛ یک ذهن نامتقارن

یکی از یافته‌های کلیدی این است که سیستم‌های هوش مصنوعی امروزی دارای پروفایل شناختی «نامتقارن» یا «پرتلاطم» هستند، به‌طوری‌که در برخی زمینه‌ها مانند دانش عمومی و ریاضیات قوی هستند، اما در جنبه‌هایی مانند حافظه بلندمدت ضعف‌های جدی دارند که باعث محدودیت‌های اساسی در عملکرد آن‌ها می‌شود.

برای مثال، حافظه بلندمدت تقریباً برای مدل‌های فعلی نزدیک به صفر است و این منجر به «فراموشی» در تعاملات می‌شود که سیستم را مجبور به یادگیری مجدد اطلاعات می‌کند. همچنین، نقص‌هایی در تفکر بصری وجود دارد که باعث می‌شود تعامل با محیط‌های دیجیتال پیچیده دشوار شود.

این عدم تعادل در توسعه باعث ایجاد «انعطاف‌پذیری‌های شناختی» می‌شود، به‌طوری‌که نقاط قوت در برخی زمینه‌ها برای جبران ضعف‌های شدید در دیگر حوزه‌ها استفاده می‌شود. این امر می‌تواند تصویر غلطی از توانایی‌های عمومی هوش مصنوعی ایجاد کند. به‌عنوان‌مثال، مدل‌ها برای جبران عارضه توهم‌زایی مرتبط با بازیابی حافظه بلندمدت از ابزارهای جستجوی خارجی (RAG) استفاده می‌کنند که نوعی تقلب است. RAG دو ضعف مدل را می‌پوشاند: ناتوانی در دسترسی قابل‌اعتماد به دانش ایستا، و مهم‌تر از آن، فقدان حافظه تجربی پویا (حافظه قابل به‌روزرسانی برای تعاملات خصوصی و درازمدت). این وابستگی، جایگزین حافظه یکپارچه لازم برای یادگیری و شخصی‌سازی واقعی نیست.

جمع‌بندی

به زبان دیگر هوش مصنوعی مانند یک موتور عمل می‌کند که عملکرد کلی آن توسط ضعیف‌ترین اجزای آن محدود می‌شود. نمره کلی بالا می‌تواند گمراه‌کننده باشد؛ یک مدل با نمره ۹۰٪ اما ۰٪ در حافظه بلندمدت عملاً یک مدل «فراموش‌کار» خواهد بود؛ بنابراین، گزارش پروفایل شناختی کامل به‌جای صرفاً نمره نهایی، ضروری است.

به طور خلاصه پس می‌توان گفت که AGI به هوش مصنوعی گفته می‌شود که با جامعیت و مهارت یک فرد بزرگسال خوب تحصیل‌کرده برابر باشد یا فراتر برود. این تعریف با مفاهیمی چون «هوش مصنوعی باارزش اقتصادی» یا «هوش مصنوعی جایگزین» که شامل وظایف فیزیکی و تولید ارزش اقتصادی هستند، تفاوت دارد.

در نهایت باید گفت باوجود همه این چالش‌ها، این چارچوب به شناسایی گلوگاه‌ها و راهنمایی در ارزیابی پیشرفت هوش مصنوعی به سمت AGI کمک می‌کند. بااین‌حال، دستیابی به نمره 100% در AGI در آینده نزدیک بعید است، چرا که مسائل اساسی مانند یادگیری مداوم، توهم‌زایی و حافظه بلندمدت هنوز حل نشده‌اند.

روتیتر را وارد کنید.

پیشنهاد IBM برای طراحی استراتژی داده در ۶ گام

در عصر هوش مصنوعی، داده دیگر صرفاً یک دارایی نیست؛ بلکه زیربنای تصمیم‌گیری هوشمند، نوآوری و رقابت‌پذیری سازمان‌هاست. همه کاربردهای هوش مصنوعی متکی به داده است که اهمیت داشتن یک استراتژی داده دقیق و منسجم را بیش از پیش بالا برده است.

اما نکته‌ی کلیدی این است که همه‌ی رویکردهای هوش مصنوعی نیازهای داده‌ای یکسانی ندارند. هوش مصنوعی سنتی و هوش مصنوعی مولد (Gen AI) به داده‌های متفاوتی وابسته‌اند. برای بهره‌گیری کامل از ظرفیت هوش مصنوعی مولد، باید راهبردی داشته باشیم که بتواند داده‌های غیرساخت‌یافته را نیز به‌درستی مدیریت و معنا کند.

نقطه‌ی شروع این مسیر، تبیین چشم‌انداز داده‌ای سازمان است؛ دارایی‌های داده، زیرساخت‌ها و شیوه‌ی فعلی استفاده از داده در فرآیندهای کسب‌وکار. در کنار آن، باید فرهنگ «سواد داده» را در سراسر سازمان گسترش دهیم و کارکنان را از طریق دموکراتیزه‌کردن داده و آشنایی با مفاهیم پایه‌ای هوش مصنوعی توانمند کنیم. این مسیر آسان نیست؛ اما بسیار حیاتی است.

در ادامه، چارچوبی گام‌به‌گام ارائه می‌شود تا بتوانید راهبرد داده‌ی خود را به‌گونه‌ای طراحی کنید که همسو با اهداف کسب‌وکار باشد و زمینه‌ی موفقیت سازمان در مسیر هوش مصنوعی را فراهم کند.

گام اول: تدوین راهبرد داده

درک اهداف کلان سازمان

نخستین گام، گفت‌وگو با مدیران ارشد است تا درکی روشن از اهداف و اولویت‌های اصلی کسب‌وکار به دست آید. این گفت‌وگوها فرصت ارزشمندی برای طرح پرسش‌های کلیدی و تعیین مسیر درست برای راهبرد داده فراهم می‌کنند.

پرسش‌هایی که باید مطرح شوند:

  1. کدام ابتکارات کسب‌وکاری در اولویت هستند؟
  2. آیا دغدغه‌هایی درباره‌ی داده‌های سازمان وجود دارد که ممکن است مانع پذیرش هوش مصنوعی شوند؟
  3. چه چالش‌هایی مانع تحقق اهداف کلیدی ما هستند؟
  4. در کدام بخش‌ها می‌توان با داده‌های باکیفیت‌تر، عملکرد را بهبود داد؟
  5. معیار سنجش موفقیت در سطح فردی و تیمی چیست؟

«در گفت‌وگو با ذی‌نفعان، نیازهای داده‌ای در سراسر سازمان را شناسایی کنید تا ارزش داده را به‌عنوان یک دارایی راهبردی نشان دهید.»

— جو راموس، رهبر مهندسی راهکارهای داده و هوش مصنوعی در IBM

شناخت کیفیت داده‌ها و نحوه‌ی جریان آن‌ها میان واحدهای مختلف، به سازمان کمک می‌کند تا ارزش‌های نهفته‌ی جدیدی را کشف کند. این ارتباط را در تمام مراحل تدوین راهبرد حفظ کنید و همواره دغدغه‌ها و اولویت‌های ذی‌نفعان را در نظر داشته باشید.

شناسایی کاربردهای کلیدی داده

همه‌چیز با این پرسش آغاز می‌شود: «کدام مسئله‌ی کسب‌وکاری را می‌خواهیم حل کنیم؟» برای هر کاربرد، باید نتایج قابل‌اندازه‌گیری و واقع‌بینانه تعریف شود. مدیران داده‌ی موفق می‌دانند که اتصال داده و تحلیل‌ها به نتایج تجاری، کلید اصلی ارزش‌آفرینی است.

حفاظت از سرمایه‌های موجود

با بهره‌گیری از زیرساخت‌ها، فناوری‌ها و مهارت‌های فعلی، راهبرد داده را توسعه دهید. شناخت اکوسیستم فناوری سازمان کمک می‌کند تشخیص دهید داده‌ها در کجا و چگونه می‌توانند بیشترین تأثیر را داشته باشند. این شناخت به حذف معماری‌های قدیمی، استفاده‌ی مؤثرتر از طرح‌های تأمین‌شده و شناسایی فرصت‌های بهبود منجر می‌شود.

گام دوم: ارزیابی وضعیت موجود

شناسایی موانع و شکاف‌ها

پس از تعیین اهداف و جلب حمایت مدیران، باید موانعی را که مانع تجربه‌ی داده‌محور واقعی هستند، شناسایی کنید. اغلب، سیلوهای داده‌ای ریشه‌ی مشکلات مدیریت و یکپارچگی داده‌اند. پژوهش‌ها نشان می‌دهد ۸۱٪ از رهبران فناوری اطلاعات، سیلوهای داده را مانع تحول دیجیتال سازمان خود می‌دانند.

داده باید در دسترس همه‌ی کاربران مرتبط باشد؛ بدون نگرانی از محل ذخیره‌سازی، وضعیت امنیت یا انطباق آن. کاربران باید بتوانند با اطمینان از داده‌های موردنیازشان استفاده کنند.

رویکرد تفکر طراحی در راهبرد داده

استفاده از رویکرد «تفکر طراحی» به شما کمک می‌کند نقاط درد و چالش‌های سازمان را آشکار کنید و در چرخه‌ای مداوم از مشاهده، بازتاب و خلق، راه‌حل‌های عملی برای آن‌ها بیابید.

ارزیابی مهارت‌ها و استعدادها

تحول داده‌ای بدون توانمندسازی تیم‌ها ممکن نیست. سازمان باید آموزش‌های مداوم برای همگام ماندن با شتاب رشد هوش مصنوعی فراهم کند. طبق نظرسنجی IBM:

  • ۸۵٪ از مدیران داده‌ی پیشرو آموزش‌ها را گسترش داده‌اند.
  • ۷۷٪ بازآموزی نیروی داخلی انجام می‌دهند.
  • ۷۰٪ استعدادهای جدید جذب می‌کنند تا سواد داده‌ای را تقویت کنند.

اولویت‌بندی حاکمیت داده

در عصر هوش مصنوعی مولد، وجود نظام حاکمیتی یکپارچه ضروری است. پایش داده‌های حساس و دارای الزامات قانونی، از تکرار خطاها و نقض حریم خصوصی جلوگیری می‌کند. بررسی کنید چه کسانی سیاست‌های داده را تدوین و نظارت می‌کنند و آیا این حاکمیت امنیت و انطباق را به‌درستی پشتیبانی می‌کند یا نه.

گام سوم: ترسیم چارچوب داده و هوش مصنوعی

تعریف وضعیت هدف داده

«بسیاری از محیط‌های داده‌ای انعطاف لازم برای تحول در فضای دیجیتال امروز را ندارند.»

— تونی جوردانو، رهبر راهبرد داده در IBM

معماری داده‌ی مدرن باید قابل مدیریت، تحت حاکمیت و ایمن باشد و همگام با مسیر دیجیتالی سازمان رشد کند.

سنجش میزان پیشرفت

اگرچه از مدیران داده انتظار می‌رود تحول ایجاد کنند، اما موفقیتشان اغلب با اهداف کوتاه‌مدت تجاری سنجیده می‌شود. طبق پژوهش AWS، تنها ۳٪ از مدیران داده موفقیت خود را صرفاً با معیارهای فنی می‌سنجند.

«از هیئت‌مدیره‌ای که انتظار معجزه در ماه‌های اول دارند تا مدیرعاملی که می‌خواهد در شش ماه سازمانی کاملاً داده‌محور داشته باشد، فشار بر مدیران داده بی‌سابقه است.»

— مطالعه‌ی IBM درباره‌ی CDOها ۲۰۲۳

گام چهارم: اجرای راهبرد

تدوین سیاست حاکمیت داده

چارچوب حاکمیتی قوی مبتنی بر کیفیت، امنیت و حریم خصوصی است. این چارچوب با ایجاد لایه‌ی حاکمیت و فراداده برای تمام پروژه‌های داده و هوش مصنوعی، شفافیت و همکاری را افزایش می‌دهد و نشان می‌دهد هوش مصنوعی چگونه می‌تواند فرآیندهای انطباق را ساده‌تر کند.

شناسایی حامیان داده

در سازمان خود افرادی را بیابید که به قدرت داده در بهبود عملکرد باور دارند. این افراد – از مهندسان و معماران داده گرفته تا رهبران واحدهای تجاری – می‌توانند شریکان کلیدی در پیشبرد راهبرد داده باشند.

گام پنجم: ایجاد راهکارهای یکپارچه

طراحی چرخه‌های سریع (اسپرینت)

برای تثبیت راهبرد داده و AI، اهداف کوچک، سریع و قابل تحقق تعیین کنید. تیم‌های میان‌وظیفه‌ای را حول این اهداف سازمان دهید و نتایج را در چرخه‌های کوتاه ارزیابی کنید. هم‌راستایی تیم‌های فنی، کسب‌وکار و مدیران ارشد در این مرحله حیاتی است.

موفقیت‌های کوچک، نتایج بزرگ

از پروژه‌های کوچک و قابل‌اندازه‌گیری آغاز کنید تا ارزش داده و AI به‌سرعت قابل مشاهده شود. برنامه‌های آزمایشی (Pilot) در مراحل ابتدایی به شما تجربه و بینش لازم برای پروژه‌های بزرگ‌تر را می‌دهند.

ایجاد فهرست مرکزی داده

کاتالوگ مرکزی داده، مکانی برای ذخیره، سازمان‌دهی و اشتراک‌گذاری بینش‌هاست و تصمیم‌گیری بلادرنگ در سراسر سازمان را ممکن می‌سازد.

توانمندسازی کاربران داده

چارچوب جدید مدیریت داده را مبنای پذیرش سازمانی قرار دهید تا ارتباطات داخلی، امنیت، بهره‌وری و مدل‌های کسب‌وکار بهبود یابند.

گام ششم: گسترش تیم و فرآیندها

داده، کار همه‌ی افراد است

مطابق گزارش Harvard Business Review، سازمان‌هایی موفق‌ترند که «داده را به مسئولیت مشترک همه‌ی کارکنان» تبدیل کرده‌اند. با توسعه‌ی موارد استفاده‌ی داده در علم داده، هوش تجاری، تحول دیجیتال و AI مولد، می‌توان فرهنگ یادگیری و تصمیم‌گیری داده‌محور را نهادینه کرد.

جذب و بازآموزی استعدادها

برای پر کردن شکاف مهارتی، باید از الگوهای سنتی استخدام فراتر رفت. زمانی که آموزش و جذب کافی نیست، می‌توان از ظرفیت هوش مصنوعی و اتوماسیون برای تکمیل مهارت‌های موردنیاز بهره گرفت.

ساخت مشارکت‌های پایدار

نقش رهبر داده، هدایت سازمان به‌سوی تصمیم‌گیری هوشمندانه در جمع‌آوری، مدیریت و استفاده از داده است. با ایجاد همکاری میان‌سطحی و تبادل بازخورد، می‌توان فرهنگی ساخت که یادگیری و رشد را در DNA سازمان جای دهد.

داده را به مزیت رقابتی خود تبدیل کنید

وقتی سازمان با شما هم‌صدا می‌شود و فناوری‌های داده‌ای رشد می‌کنند، در واقع بیش از یک سیستم کارآمد خلق کرده‌اید؛ شما فرهنگی ساخته‌اید که داده را منبع الهام و نوآوری می‌داند. در این فرهنگ، تصمیم‌ها بر پایه‌ی داده گرفته می‌شوند و آینده، بر محور هوش مصنوعی شکل می‌گیرد.

منبع: IBM

روتیتر را وارد کنید.

واژه‌نامه هوش مصنوعی

این واژه‌نامه با هدف ارائه‌ی تعاریف دقیق، به‌روز و قابل‌درک از مفاهیم کلیدی حوزه‌ی هوش مصنوعی تهیه شده است. در تهیه و تدوین آن، از منبع دانشگاه MIT استفاده شده که به قلم پروفسور حسین رهنما تدیون شده و لینک منبع را در انتهای متن قرار داده‌ایم. تمامی کلمات بادقت به فارسی ترجمه و بازنویسی شده‌اند تا برای مخاطبان فارسی‌زبان، به‌ویژه متخصصان و علاقه‌مندان حوزه‌ی داده و هوش مصنوعی، کاربردی و قابل‌فهم باشند.

هوش مصنوعی

معادل انگلیسی: Artificial Intelligence (AI)

تعریف

هوش مصنوعی به توسعه سیستم‌هایی اطلاق می‌شود که می‌توانند وظایفی را انجام دهند که معمولاً به هوش انسانی نیاز دارند، مانند استدلال، یادگیری و حل مسئله.

اهمیت

هوش مصنوعی در پیشبرد تحقیقات علمی، افزایش توانایی‌های انسانی و رسیدگی به چالش‌های پیچیده در حوزه‌های مختلف مانند پزشکی، آموزش، مالی و حکمرانی اجتماعی نقشی اساسی دارد.

هوش مصنوعی محدود

معادل انگلیسی: Narrow AI

تعریف

هوش مصنوعی محدود که به‌عنوان هوش مصنوعی ضعیف (Weak AI) نیز شناخته می‌شود، به سیستم‌های هوش مصنوعی اشاره دارد که برای انجام یک کار خاص یا مجموعه‌ای محدود از وظایف با کارایی و دقت بالا طراحی شده‌اند. برخلاف هوش مصنوعی عمومی، هوش مصنوعی محدود قادر به تعمیم توانایی‌های خود در حوزه‌های مختلف نیست.

اهمیت

هوش مصنوعی محدود، رایج‌ترین شکل هوش مصنوعی امروزی است و باعث پیشرفت در زمینه‌هایی مانند تشخیص گفتار، سیستم‌های توصیه‌گر و وسایل نقلیه خودران می‌شود. عملکرد متمرکز آن، آن را برای حل مسائل تخصصی بسیار مؤثر می‌سازد و زمینه را برای نوآوری‌های بیشتر و کاربردهای عملی هوش مصنوعی فراهم می‌کند.

هوش مصنوعی عمومی

معادل انگلیسی: General AI (AGI)

تعریف

هوش مصنوعی عمومی (AGI) به سیستم‌های هوش مصنوعی با تطبیق‌پذیری شبیه به انسان اشاره دارد که قادر به انجام طیف وسیعی از وظایف در حوزه‌های مختلف با توانایی استدلال و انطباق هستند.

اهمیت

درحالی‌که هوش مصنوعی محدود تخصصی است و در انجام کارهای خاص برتری دارد، AGI با هدف تعمیم و شبیه‌سازی هوش انسانی، یادگیری و به‌کارگیری انعطاف‌پذیر دانش در موقعیت‌های گوناگون است.

هوش مصنوعی دانش‌محور

معادل انگلیسی: Knowledge-Driven AI

تعریف

هوش مصنوعی دانش‌محور یک دسته گسترده است که شامل هر رویکرد هوش مصنوعی می‌شود که از دانش ساختاریافته و صریح برای انجام استدلال و حل مسئله بهره می‌برد. این شامل هم سیستم‌های نمادین و هم سیستم‌های ترکیبی است که روش‌های دانش‌محور را با الگوهای دیگر (مانند مدل‌های آماری) ترکیب می‌کنند.

اهمیت

این رویکرد برای کاربردهایی که به قابلیت اطمینان، قابلیت تفسیر و شفافیت بالا نیاز دارند، مانند استدلال حقوقی و سیستم‌های تشخیص بیماری، حیاتی است.

هوش مصنوعی داده‌محور

معادل انگلیسی: Data-Driven AI

تعریف

هوش مصنوعی داده‌محور از داده‌های در مقیاس بزرگ و تکنیک‌های آماری برای کشف الگوها و انجام پیش‌بینی‌ها بدون تکیه بر قوانین از پیش تعریف‌شده استفاده می‌کند.

اهمیت

این رویکرد امکان توسعه سیستم‌های مقیاس‌پذیر را فراهم می‌آورد که با یادگیری از داده‌های جدید، خود را تطبیق می‌دهند و آن را برای محیط‌های پویا و در حال تغییر که داده‌ها در آن‌ها فراوان است، ایدئال می‌کند.

یادگیری ماشین

معادل انگلیسی: Machine Learning (ML)

تعریف

یادگیری ماشین زیرمجموعه‌ای از هوش مصنوعی (هوش مصنوعی داده‌محور) است که از روش‌های آماری برای توانمندسازی سیستم‌ها به‌منظور یادگیری از داده‌ها و بهبود عملکرد در طول زمان استفاده می‌کند.

اهمیت

ML با خودکارسازی فرایندهای یادگیری، پیشرفت‌ها در هوش مصنوعی را هدایت می‌کند و امکان تحلیل مجموعه‌داده‌های عظیم و کشف بینش‌ها در زمینه‌های مختلف را فراهم می‌سازد.

یادگیری ماشین کلاسیک

معادل انگلیسی: Classic Machine Learning

تعریف

یادگیری ماشین کلاسیک به الگوریتم‌های سنتی اشاره دارد که بر داده‌های ساختاریافته و جدولی تکیه می‌کنند و شامل شبکه‌های عصبی یا یادگیری عمیق نمی‌شوند. این روش‌ها شامل: درختان تصمیم‌گیری (Decision Trees)، ماشین‌های بردار پشتیبان (SVMs)، نزدیک‌ترین همسایه‌ها (k-NN)، رگرسیون خطی و لجستیک و بیز ساده (Naïve Bayes) هستند.

اهمیت

تکنیک‌های یادگیری ماشین کلاسیک به دلیل سادگی، کارایی و قابلیت تفسیر آن‌ها ارزشمند هستند. آن‌ها در مجموعه‌داده‌های کوچک‌تر عملکرد خوبی دارند، به محاسبات کمتری نیاز دارند و به طور گسترده در کاربردهایی مانند مدل‌سازی مالی و کشف تقلب استفاده می‌شوند.

شبکه‌های بیزی

معادل انگلیسی: Bayesian Networks

تعریف

شبکه‌های بیزی مدل‌های گرافیکی احتمالی هستند که مجموعه‌ای از متغیرها و وابستگی‌های شرطی آن‌ها را با استفاده از یک گراف جهت‌دار بدون چرخه نشان می‌دهند. آن‌ها نظریه احتمالات و نظریه گراف را برای مدیریت عدم قطعیت در داده‌ها ترکیب می‌کنند.

اهمیت

شبکه‌های بیزی برای استدلال در شرایط عدم قطعیت حیاتی هستند که باعث می‌شود به طور گسترده در زمینه‌هایی مانند تشخیص بیماری، سیستم‌های پشتیبانی از تصمیم و تحلیل ریسک مورداستفاده قرار گیرند. قابلیت تفسیر و توانایی آن‌ها در مدل‌سازی روابط علی، تصمیم‌گیری را در سیستم‌های پیچیده بهبود می‌بخشد.

هوش مصنوعی زیرنمادین (اتصال‌گرا)

معادل انگلیسی: Sub-Symbolic (Connectionist) AI

تعریف

هوش مصنوعی اتصال‌گرا به ساختار شبکه‌ای مدل‌ها، به‌ویژه شبکه‌های عصبی، اشاره دارد که از نورون‌های به‌هم‌پیوسته در مغز انسان الهام‌گرفته شده‌اند.

اهمیت

رویکردهای اتصال‌گرا، زیربنای روش‌های مدرن هوش مصنوعی، از جمله شبکه‌های عصبی و یادگیری عمیق هستند که بر تشخیص الگو و یادگیری مبتنی بر داده تکیه دارند که در بسیاری از زمینه‌ها، این اصطلاح را به یک واژه قابل‌تعویض تبدیل کرده است.

شبکه‌های عصبی

معادل انگلیسی: Neural Networks

تعریف

شبکه‌های عصبی یک تکنیک یادگیری ماشین زیرنمادین هستند که از ساختار مغز انسان الگوبرداری شده‌اند. آن‌ها از لایه‌هایی از گره‌های به‌هم‌پیوسته (نورون‌ها) تشکیل شده‌اند که داده‌ها را با استفاده از وزن‌ها و توابع فعال‌سازی پردازش می‌کنند تا الگوها و ویژگی‌ها را در داده‌های ورودی یاد بگیرند.

اهمیت

شبکه‌های عصبی برای هوش مصنوعی مدرن که باعث پیشرفت در وظایفی مانند تشخیص تصویر، پردازش زبان طبیعی، تشخیص صدا، سنتز داده‌ها و غیره می‌شوند، حیاتی هستند. توانایی آن‌ها در مدل‌سازی روابط پیچیده و غیرخطی، آن‌ها را برای حل مسائل دشوار در زمینه‌های مختلف ضروری می‌سازد.

شبکه‌های عصبی عمیق

معادل انگلیسی: Deep Neural Networks (DNNs)

تعریف

شبکه‌های عصبی عمیق (DNNs) نوعی از شبکه‌های عصبی هستند که با لایه‌های متعدد از نورون‌های به‌هم‌پیوسته مشخص می‌شوند و یادگیری سلسله‌مراتبی ویژگی‌ها را از داده‌های خام امکان‌پذیر می‌سازند. هر لایه الگوهای به طور فزاینده انتزاعی‌تری را استخراج می‌کند که DNNها را به‌ویژه برای کارهای پیچیده مناسب می‌سازد.

اهمیت

DNNs با دستیابی به عملکرد پیشرفته در زمینه‌هایی مانند بینایی کامپیوتری، درک زبان، مدل‌سازی مولد و سیستم‌های خودمختار، هوش مصنوعی را متحول کرده‌اند. توانایی آن‌ها در مدل‌سازی روابط پیچیده، باعث پیشرفت در زمینه‌هایی مانند تشخیص پزشکی، مدل‌های مولد و رباتیک پیشرفته شده است.

رمزگذار خودکار

معادل انگلیسی: Autoencoders

تعریف

رمزگذارهای خودکار نوعی از شبکه عصبی هستند که برای یادگیری نمایش‌های کارآمد و کم‌بُعد از داده‌ها با رمزگذاری ورودی به یک فرم فشرده و سپس بازسازی داده اصلی از آن طراحی شده‌اند. آن‌ها از یک رمزگذار و یک رمزگشا تشکیل شده‌اند.

اهمیت

رمزگذارهای خودکار به طور گسترده برای کارهایی مانند کاهش ابعاد، تشخیص ناهنجاری و حذف نویز از داده‌ها استفاده می‌شوند. با یادگیری نمایش‌های پنهان، آن‌ها کاربردهایی را در فشرده‌سازی تصویر، مدل‌سازی مولد و استخراج ویژگی‌ها امکان‌پذیر می‌سازند.

ترانسفورمرها

معادل انگلیسی: Transformers

تعریف

ترانسفورمرها نوعی از معماری شبکه عصبی هستند که برای کارهای توالی به توالی طراحی شده‌اند و از مکانیزم‌های خودتوجهی برای پردازش کارآمد داده‌های ورودی بهره می‌برند. آن‌ها روابط درون توالی‌ها را مدل‌سازی می‌کنند که آن‌ها را برای کارهای پردازش زبان طبیعی، تشخیص گفتار و فراتر از آن بسیار مناسب می‌سازد.

اهمیت

ترانسفورمرها با فعال‌سازی آموزش مقیاس‌پذیر و موازی و دستیابی به نتایج پیشرفته در کارهایی مانند ترجمه ماشینی، تولید متن و پاسخ به سؤالات، هوش مصنوعی را متحول کردند. انعطاف‌پذیری آن‌ها، آن‌ها را به پایه و اساس بسیاری از مدل‌های پیشرفته، از جمله GPT، BERT و سایر مدل‌های زبانی بزرگ، تبدیل کرده و پیشرفت در تحقیقات و کاربردهای هوش مصنوعی را هدایت می‌کند.

یادگیری نظارت‌شده

معادل انگلیسی: Supervised Learning

تعریف

یادگیری نظارت‌شده یک رویکرد یادگیری ماشین است که در آن مدل‌ها بر روی مجموعه‌داده‌های برچسب‌دار آموزش می‌بینند، جایی که هر ورودی با یک خروجی مربوطه جفت می‌شود. مدل با به‌حداقل‌رساندن خطاهای پیش‌بینی در داده‌های برچسب‌دار، یاد می‌گیرد که ورودی‌ها را به خروجی‌ها نگاشت کند.

اهمیت

این الگو برای حل کارهایی مانند طبقه‌بندی، رگرسیون و تشخیص اشیا ضروری است و پایه و اساس بسیاری از کاربردهای واقعی را تشکیل می‌دهد. یادگیری تحت نظارت یک چارچوب قابل‌اعتماد برای ایجاد سیستم‌های پیش‌بینی‌کننده که به‌دقت و قابلیت توضیح بالا نیاز دارند، فراهم می‌کند.

یادگیری بدون نظارت

معادل انگلیسی: Unsupervised Learning

تعریف

یادگیری بدون نظارت یک رویکرد یادگیری ماشین است که در آن مدل‌ها بر روی داده‌های بدون برچسب آموزش می‌بینند تا الگوها، ساختارها یا گروه‌بندی‌ها را بدون خروجی‌های از پیش تعریف‌شده شناسایی کنند. تکنیک‌هایی مانند خوشه‌بندی و کاهش ابعاد معمولاً مورداستفاده قرار می‌گیرند.

اهمیت

این روش برای کارهایی مانند تشخیص ناهنجاری، تقسیم‌بندی مشتری و استخراج ویژگی‌ها حیاتی است. یادگیری بدون نظارت به کشف روابط پنهان درون داده‌ها کمک می‌کند، بینش‌هایی را ارائه می‌دهد و کاربردها را در کاوش و پیش‌پردازش داده‌ها امکان‌پذیر می‌سازد.

یادگیری تقویتی

معادل انگلیسی: Reinforcement Learning

تعریف

یادگیری تقویتی یک روش یادگیری ماشین است که در آن یک عامل در تعامل با محیط خود، یاد می‌گیرد که تصمیم‌گیری کند؛ با هدف به حداکثر رساندن پاداش‌های تجمعی در طول زمان. این روش بر اساس بازخورد به شکل پاداش یا جریمه برای اقدامات خود عمل می‌کند.

اهمیت

با تقلید از فرایندهای یادگیری طبیعی، یادگیری تقویتی برای توسعه سیستم‌های تطبیق‌پذیر، رباتیک و عوامل خودمختار ارزشمند است. این روش هوش مصنوعی را قادر می‌سازد تا مسائل تصمیم‌گیری متوالی را حل کرده و رفتار را در محیط‌های پویا و پیچیده بهینه کند.

هوش مصنوعی عاملیت‌محور

معادل انگلیسی: Agentic AI

تعریف

هوش مصنوعی عاملیت‌محور به سیستم‌های هوش مصنوعی اشاره دارد که برای عمل خودمختار طراحی شده‌اند، محیط خود را درک می‌کنند، تصمیم می‌گیرند و برای دستیابی به اهداف خاص، اقدام می‌کنند. این سیستم‌ها اغلب ویژگی‌هایی مانند تطبیق‌پذیری، جهت‌گیری به سمت هدف و تعامل با محیط‌های پویا را در خود جای می‌دهند.

اهمیت

هوش مصنوعی عاملیت‌محور برای کاربردهایی که به استقلال و رفتار فعال نیاز دارند، مانند رباتیک، وسایل نقلیه خودمختار و دستیارهای مجازی، حیاتی است. این سیستم‌ها با عملکرد خودمختار می‌توانند کارهای پیچیده را مدیریت کنند، با شرایط در حال تغییر سازگار شوند و با حداقل دخالت انسانی عمل کنند که دامنه کاربرد هوش مصنوعی را در سناریوهای واقعی گسترش می‌دهد.

هوش مصنوعی نمادین

معادل انگلیسی: Symbolic AI

تعریف

هوش مصنوعی نمادین یک الگو است که تحت چتر هوش مصنوعی دانش‌محور قرار می‌گیرد و به طور خاص بر نمایش و دست‌کاری دانش با استفاده از نمادها، قوانین و منطق رسمی برای استدلال و تصمیم‌گیری تمرکز دارد.

اهمیت

این رویکرد شفافیت و قابلیت توضیح را در سیستم‌های هوش مصنوعی تقویت می‌کند که برای پیشبرد درک علمی و افزایش اعتماد حیاتی است.

سیستم‌های خبره

معادل انگلیسی: Expert Systems

تعریف

سیستم‌های خبره برنامه‌های هوش مصنوعی هستند که توانایی‌های تصمیم‌گیری یک متخصص انسانی را با استفاده از یک پایگاه دانش از حقایق و قوانین همراه با یک موتور استنتاج برای استخراج نتایج تقلید می‌کنند. این سیستم‌ها برای حل مسائل پیچیده در حوزه‌های خاص طراحی شده‌اند.

اهمیت

سیستم‌های خبره از اولین کاربردهای موفق هوش مصنوعی بودند که به طور گسترده در زمینه‌هایی مانند مراقبت‌های بهداشتی، مهندسی و مالی استفاده می‌شدند. آن‌ها تصمیم‌گیری قابل‌اعتماد و سازگاری را فراهم می‌کنند، به‌ویژه در زمینه‌هایی که به دانش تخصصی نیاز دارند، و زمینه را برای پیشرفت‌های بعدی در استدلال و سیستم‌های مبتنی بر منطق هوش مصنوعی فراهم کردند.

بازنمایی دانش و استدلال

معادل انگلیسی:  Knowledge Representation and Reasoning (KR&R)

تعریف

بازنمایی دانش و استدلال (KR&R) به حوزه‌ای از هوش مصنوعی اشاره دارد که بر رمزگذاری اطلاعات در مورد جهان به اشکال ساختاریافته، مانند نمادها، گراف‌ها یا قوانین، و توانمندسازی سیستم‌ها برای استفاده از این دانش به‌منظور انجام استدلال و تصمیم‌گیری تمرکز دارد. این حوزه، نمایش دانش را با مکانیزم‌هایی برای استخراج نتایج منطقی، حل مسائل و پاسخ به پرسش‌ها ترکیب می‌کند.

اهمیت

KR&R برای هوش مصنوعی حیاتی است، زیرا به درک انسان و پردازش ماشین پل می‌زند و به سیستم‌ها اجازه می‌دهد تا داده‌ها را به طور مؤثر تفسیر، تحلیل و استدلال کنند. این حوزه از وظایف مهمی مانند برنامه‌ریزی، تشخیص بیماری و درک زبان طبیعی پشتیبانی می‌کند. با توانمندسازی هوش مصنوعی قابل‌توضیح و قابل‌تفسیر، KR&R اعتماد به سیستم‌های هوش مصنوعی را افزایش می‌دهد و برای کاربردهایی که به شفافیت، دقت و تصمیم‌گیری پیچیده نیاز دارند، حیاتی است.

گراف‌های دانش و هستی‌شناسی‌ها

معادل انگلیسی: Knowledge Graphs and Ontologies

تعریف

گراف‌های دانش نمایش‌های ساختاریافته‌ای از دانش به شکل موجودیت‌ها (گره‌ها) و روابط آن‌ها (یال‌ها) هستند که امکان بازیابی و استدلال کارآمد را فراهم می‌کنند. هستی‌شناسی‌ها که ارتباط نزدیکی با گراف‌های دانش دارند، چارچوب‌های رسمی هستند که مفاهیم، روابط و قوانین را در یک حوزه خاص تعریف می‌کنند و واژگانی مشترک برای ساختاردهی و تفسیر داده‌ها فراهم می‌کنند.

اهمیت

گراف‌های دانش و هستی‌شناسی‌ها با هم به‌عنوان پایه‌ای برای درک معنایی در هوش مصنوعی عمل می‌کنند که قابلیت همکاری، استدلال و تصمیم‌گیری آگاه از زمینه را امکان‌پذیر می‌سازد. آن‌ها برای کاربردهایی مانند پردازش زبان طبیعی، سیستم‌های توصیه‌گر و بازیابی اطلاعات حیاتی هستند، جایی که نمایش واضح و ساختاریافته دانش، عملکرد و قابلیت توضیح سیستم را افزایش می‌دهد.

بهینه‌سازی

معادل انگلیسی: Optimization

تعریف

بهینه‌سازی در یادگیری ماشین به فرایند تنظیم پارامترهای مدل برای به‌حداقل‌رساندن یا به حداکثر رساندن یک تابع هدف خاص، مانند کاهش خطای پیش‌بینی یا بهبود دقت، اشاره دارد. این امر از طریق الگوریتم‌هایی مانند نزول گرادیان (gradient descent) که به‌صورت تکراری پارامترها را برای دستیابی به بهترین عملکرد اصلاح می‌کنند، به دست می‌آید.

اهمیت

بهینه‌سازی برای آموزش مدل‌های یادگیری ماشین حیاتی است، زیرا تضمین می‌کند آن‌ها به طور مؤثر از داده‌ها یاد می‌گیرند و به‌خوبی به سناریوهای دیده نشده تعمیم می‌یابند. این فرایند، کارایی و دقت سیستم‌های هوش مصنوعی را تقویت می‌کند و باعث پیشرفت در زمینه‌هایی مانند پردازش زبان طبیعی، بینایی کامپیوتری و یادگیری تقویتی می‌شود.

هوش مصنوعی پیش‌بینی‌کننده

معادل انگلیسی: Predictive AI

تعریف

هوش مصنوعی پیش‌بینی‌کننده بر تحلیل داده‌های تاریخی و لحظه‌ای برای پیش‌بینی روندهای آینده، رفتارها یا رویدادها تمرکز دارد. این شامل استفاده از تکنیک‌هایی مانند مدل‌های رگرسیون، تحلیل سری‌های زمانی و مدل‌سازی پیش‌بینی‌کننده در یادگیری ماشین است.

اهمیت

هوش مصنوعی پیش‌بینی‌کننده برای تصمیم‌گیری فعالانه در حوزه‌هایی مانند مراقبت‌های بهداشتی، مالی و لجستیک حیاتی است. این نوع هوش مصنوعی امکان ارزیابی ریسک، بهینه‌سازی منابع و برنامه‌ریزی استراتژیک را با ارائه پیش‌بینی‌های دقیق و بینش‌هایی در مورد سناریوهای احتمالی آینده فراهم می‌کند.

هوش مصنوعی مولد

معادل انگلیسی: Generative AI

تعریف

هوش مصنوعی مولد به سیستم‌های هوش مصنوعی اشاره دارد که با یادگیری الگوها از داده‌های موجود، محتوای جدیدی مانند متن، تصاویر، موسیقی یا ویدئو تولید می‌کنند. این مدل‌ها اغلب از تکنیک‌هایی مانند شبکه‌های مولد رقابتی (GANs)، رمزگذارهای خودکار متغیر (VAEs) و مدل‌های انتشاری (diffusion models) برای ایجاد خروجی‌های واقع‌گرایانه و جدید استفاده می‌کنند.

اهمیت

هوش مصنوعی مولد با خودکارسازی تولید محتوا، زمینه‌هایی مانند هنرهای خلاقانه، طراحی و سرگرمی را متحول می‌کند. همچنین از شبیه‌سازی، افزایش داده‌ها و آموزش پشتیبانی می‌کند و روش‌های جدیدی برای یادگیری و حل مسئله ایجاد می‌کند. توانایی آن در تولید داده‌های مصنوعی در آموزش مدل‌های هوش مصنوعی که داده‌های واقعی در آن‌ها کمیاب یا حساس است، کاربرد دارد.

شبکه‌های مولد رقابتی (GANs)

معادل انگلیسی: Generative Adversarial Networks (GANs)

تعریف

شبکه‌های مولد رقابتی (GANs) نوعی از معماری شبکه عصبی هستند که از دو شبکه رقیب تشکیل شده‌اند: یک مولد (generator) که داده‌های مصنوعی ایجاد می‌کند و یک تمیزدهنده (discriminator) که اعتبار آن را ارزیابی می‌کند. دو شبکه به‌صورت تکراری آموزش می‌بینند تا کیفیت داده‌های تولید شده را بهبود بخشند.

اهمیت

GANs با امکان تولید داده‌های مصنوعی بسیار واقع‌گرایانه مانند تصاویر، ویدئوها و صدا، تولید محتوا را متحول کرده‌اند. آن‌ها به طور گسترده در سرگرمی، شبیه‌سازی و افزایش داده‌ها استفاده می‌شوند و به پیشرفت در زمینه‌هایی مانند هنر، طراحی و واقعیت مجازی کمک می‌کنند.

هوش مصنوعی ترکیبی

معادل انگلیسی: Hybrid AI

تعریف

هوش مصنوعی ترکیبی به رویکردهایی اشاره دارد که استدلال نمادین که از قوانین و منطق صریح استفاده می‌کند، را با روش‌های داده‌محور مانند یادگیری ماشین ترکیب می‌کنند تا از مزایای هر دو الگو بهره ببرند. این امر به سیستم‌ها امکان می‌دهد تا دانش ساختاریافته را پردازش کنند درحالی‌که از داده‌های غیرساختاریافته یاد می‌گیرند.

اهمیت

هوش مصنوعی ترکیبی با ترکیب استدلال قابل خواندن برای انسان با انعطاف‌پذیری یادگیری ماشین، شکاف بین قابلیت تفسیر و تطبیق‌پذیری را پر می‌کند. این نوع هوش مصنوعی به‌ویژه در حوزه‌هایی که به شفافیت و مقیاس‌پذیری نیاز دارند، مانند مراقبت‌های بهداشتی، مالی و سیستم‌های خودمختار، مؤثر است.

هوش مصنوعی عصبی-نمادین

معادل انگلیسی: Neuro-Symbolic AI

تعریف

هوش مصنوعی عصبی-نمادین یک نوع خاص از هوش مصنوعی ترکیبی است که شبکه‌های عصبی را با استدلال نمادین یکپارچه می‌کند تا سیستم‌هایی ایجاد کند که قادر به هر دو یادگیری از داده‌ها و انجام استدلال مبتنی بر منطق هستند. این نوع هوش مصنوعی، توانایی‌های تشخیص الگوی شبکه‌های عصبی را با نمایش دانش ساختاریافته هوش مصنوعی نمادین ترکیب می‌کند.

اهمیت

هوش مصنوعی عصبی-نمادین با پرداختن به چالش‌هایی مانند قابلیت توضیح، تعمیم‌پذیری و استدلال، سیستم‌های هوش مصنوعی را بهبود می‌بخشد. این نوع هوش مصنوعی به‌ویژه در کاربردهایی که به درک عمیق از زمینه نیاز دارند، مانند گراف‌های دانش، استدلال خودکار و تصمیم‌گیری در محیط‌های پیچیده، ارزشمند است.

مدل‌های پیش‌آموزش‌دیده

معادل انگلیسی: Pre-Trained Models

تعریف

مدل‌های پیش‌آموزش‌دیده مدل‌های هوش مصنوعی هستند که بر روی مجموعه‌داده‌های بزرگی آموزش دیده‌اند تا الگوها، ویژگی‌ها یا نمایش‌های عمومی را یاد بگیرند که سپس می‌توانند برای کارهای خاص تنظیم یا تطبیق داده شوند. این مدل‌ها اغلب به‌عنوان یک نقطه شروع برای توسعه کاربردهای جدید استفاده می‌شوند.

اهمیت

مدل‌های پیش‌آموزش‌دیده به طور قابل‌توجهی زمان، داده و منابع محاسباتی موردنیاز برای آموزش سیستم‌های هوش مصنوعی از ابتدا را کاهش می‌دهند. آن‌ها امکان توسعه سریع و بهبود عملکرد را در طیف گسترده‌ای از کاربردها فراهم می‌کنند و هوش مصنوعی را دردسترس‌تر و کارآمدتر می‌سازند.

یادگیری انتقالی

معادل انگلیسی: Transfer Learning

تعریف

یادگیری انتقالی یک تکنیک یادگیری ماشین است که در آن یک مدل که برای یک کار توسعه یافته، با بهره‌گیری از دانشی که از کار اولیه یاد گرفته، برای یک کار متفاوت اما مرتبط تطبیق داده می‌شود. این اغلب از طریق تنظیم دقیق (fine-tuning) مدل‌های پیش‌آموزش‌دیده برای مناسب ساختن آن‌ها با مجموعه‌داده‌ها یا اهداف جدید به دست می‌آید.

اهمیت

یادگیری انتقالی توسعه سیستم‌های هوش مصنوعی را با کاهش نیاز به داده‌های برچسب‌دار گسترده و منابع محاسباتی برای کارهای جدید، تسریع می‌کند. این تکنیک، تطبیق‌پذیری هوش مصنوعی را در حوزه‌های مختلف افزایش می‌دهد و به‌ویژه در سناریوهایی با داده‌های محدود یا محدودیت‌های زمانی مفید است.

تنظیم دقیق

معادل انگلیسی: Fine-Tuning

تعریف

تنظیم دقیق یک تکنیک یادگیری ماشین است که در آن یک مدل پیش‌آموزش‌دیده با آموزش بیشتر بر روی داده‌های جدید با پارامترهای تنظیم‌شده، برای یک کار یا مجموعه‌داده خاص تطبیق داده می‌شود. این فرایند معمولاً شامل استفاده از نرخ یادگیری کمتر و داده‌های خاص کار است تا دانش عمومی مدل اصلی حفظ شود درحالی‌که برای کار جدید سفارشی می‌شود.

اهمیت

تنظیم دقیق امکان استفاده مجدد کارآمد از مدل‌های پیش‌آموزش‌دیده را فراهم می‌کند، و نیاز به منابع محاسباتی گسترده و مجموعه‌داده‌های بزرگ را کاهش می‌دهد. این تکنیک به‌ویژه برای کارهایی با داده‌های محدود ارزشمند است، و امکان استقرار سریع سیستم‌های هوش مصنوعی در کاربردهای مختلف را فراهم می‌کند.

یادگیری مستمر

معادل انگلیسی: Continual Learning

تعریف

یادگیری مستمر که به‌عنوان یادگیری مادام‌العمر نیز شناخته می‌شود، یک الگوی یادگیری ماشین است که در آن سیستم‌های هوش مصنوعی به‌صورت فزاینده از داده‌های جدید یاد می‌گیرند درحالی‌که دانش قبلی را حفظ و یکپارچه می‌کنند. این رویکرد از فراموشی فاجعه‌بار جلوگیری می‌کند، و به سیستم اجازه می‌دهد تا به طور مداوم در طول زمان خود را تطبیق دهد.

اهمیت

یادگیری مستمر فرایندهای شناختی انسانی را تقلید می‌کند، و به سیستم‌های هوش مصنوعی امکان می‌دهد تا در محیط‌های پویا تکامل یابند، تطبیق پیدا کنند و مؤثر باقی بمانند. این برای کاربردهای بلندمدت مانند رباتیک، دستیارهای شخصی و سیستم‌های خودمختار که در آن‌ها تطبیق با اطلاعات و محیط‌های جدید ضروری است، حیاتی است.

یادگیری ساختار (یادگیری گراف)

معادل انگلیسی: Structure Learning (Graph Learning)

تعریف

یادگیری ساختار که به‌عنوان یادگیری گراف نیز شناخته می‌شود، فرایند شناسایی ساختار زیربنایی داده‌ها با مدل‌سازی آن‌ها به‌عنوان گره‌ها و یال‌ها در یک گراف است. این شامل یادگیری روابط، وابستگی‌ها یا تعاملات بین موجودیت‌ها در مجموعه‌داده‌های ساختاریافته یا غیرساختاریافته است.

اهمیت

یادگیری ساختار برای کارهایی مانند تحلیل شبکه اجتماعی، ساخت گراف دانش و مدل‌سازی شبکه بیولوژیکی حیاتی است. با گرفتن اطلاعات رابطه‌ای، این تکنیک به سیستم‌ها امکان می‌دهد تا در حوزه‌هایی مانند سیستم‌های توصیه‌گر، مراقبت‌های بهداشتی و تحقیقات علمی، استدلال کنند، الگوها را کشف کنند و پیش‌بینی‌ها را انجام دهند.

هوش مصنوعی مقیاس‌پذیر

معادل انگلیسی: Scalable AI

تعریف

هوش مصنوعی مقیاس‌پذیر به سیستم‌های هوش مصنوعی اشاره دارد که برای حفظ کارایی و عملکرد در زمانی که حجم داده‌ها، پیچیدگی کارها یا تقاضای کاربران افزایش می‌یابد، طراحی شده‌اند. این نوع هوش مصنوعی تضمین می‌کند که سیستم می‌تواند در ظرفیت یا عملکرد رشد کند بدون اینکه کیفیت یا پاسخگویی به طور قابل‌توجهی کاهش یابد.

اهمیت

هوش مصنوعی مقیاس‌پذیر برای مدیریت کاربردهای در مقیاس بزرگ، مانند تحلیل داده‌های بزرگ، استقرار جهانی خدمات و پردازش لحظه‌ای در محیط‌های پویا، حیاتی است. توانایی آن در تطبیق با تقاضاهای فزاینده، قابلیت اطمینان و اثربخشی بلندمدت را تضمین می‌کند و امکان پذیرش گسترده در صنایع و موارد استفاده را فراهم می‌آورد.

هوش مصنوعی تطبیق‌پذیر

معادل انگلیسی: Adaptable AI

تعریف

هوش مصنوعی تطبیق‌پذیر به سیستم‌هایی اشاره دارد که قادرند رفتار، استراتژی‌ها یا مدل‌های خود را در پاسخ به محیط‌های در حال تغییر، کارها یا نیازهای کاربر بدون نیاز به برنامه‌نویسی مجدد صریح، به‌صورت پویا تنظیم کنند.

اهمیت

هوش مصنوعی تطبیق‌پذیر برای توسعه سیستم‌های قوی که می‌توانند به طور مؤثر در سناریوهای متنوع و غیرقابل‌پیش‌بینی عمل کنند، حیاتی است. توانایی آن در تعمیم در زمینه‌های مختلف، قابلیت استفاده و پایداری بلندمدت را تضمین می‌کند که آن را برای کاربردهایی مانند دستیارهای شخصی، سیستم‌های خودمختار و تصمیم‌گیری لحظه‌ای در محیط‌های پیچیده ضروری می‌سازد.

هوش مصنوعی قابل‌توضیح

معادل انگلیسی: Explainable AI (XAI)

تعریف

هوش مصنوعی قابل‌توضیح (XAI) به روش‌ها و سیستم‌هایی اشاره دارد که برای شفاف‌سازی عملکرد درونی مدل‌های هوش مصنوعی طراحی شده‌اند، و توضیحات واضح و قابل تفسیری برای اقدامات، تصمیمات و پیش‌بینی‌های آن‌ها ارائه می‌دهند.

اهمیت

XAI برای تقویت پاسخگویی، اعتماد و استفاده اخلاقی از هوش مصنوعی، به‌ویژه در زمینه‌های حساس مانند مراقبت‌های بهداشتی، مالی و سیستم‌های حقوقی، حیاتی است. با توانمندسازی انسان‌ها برای درک و تأیید تصمیمات هوش مصنوعی، XAI از تصمیم‌گیری بهتر، انطباق با مقررات و کاهش سوگیری‌ها پشتیبانی می‌کند.

انصاف

معادل انگلیسی: Fairness

تعریف

انصاف در هوش مصنوعی به اصل تضمین این موضوع اشاره دارد که سیستم‌های هوش مصنوعی نتایج عادلانه و بی‌طرفانه‌ای را برای همه افراد و گروه‌ها، بدون توجه به ویژگی‌هایی مانند نژاد، جنسیت، سن یا وضعیت اجتماعی-اقتصادی، ارائه دهند. این شامل شناسایی و کاهش سوگیری‌ها در داده‌ها، الگوریتم‌ها و فرایندهای تصمیم‌گیری است.

اهمیت

انصاف برای استقرار اخلاقی هوش مصنوعی حیاتی است و تضمین می‌کند که فناوری‌ها نابرابری‌های اجتماعی را تداوم نمی‌بخشند یا تقویت نمی‌کنند. با ترویج برابری و فراگیری، انصاف اعتماد و اطمینان به سیستم‌های هوش مصنوعی را ایجاد می‌کند و از آسیب در کاربردهای حساس مانند استخدام، وام‌دهی و عدالت کیفری جلوگیری می‌نماید.

هوش مصنوعی اخلاقی

معادل انگلیسی: Ethical AI

تعریف

هوش مصنوعی اخلاقی شامل توسعه و استفاده از سیستم‌های هوش مصنوعی به‌گونه‌ای است که با اصول اخلاقی، هنجارهای اجتماعی و چارچوب‌های نظارتی هماهنگ باشد تا نتایج مسئولانه و سودمند را تضمین کند. این حوزه به نگرانی‌هایی مانند سوگیری، پاسخگویی، حریم خصوصی و شفافیت می‌پردازد.

اهمیت

هوش مصنوعی اخلاقی برای حفاظت از حقوق بشر و تقویت اعتماد به فناوری‌های هوش مصنوعی ضروری است. با اولویت‌دادن به پاسخگویی، انصاف و رفاه اجتماعی، این حوزه تضمین می‌کند که هوش مصنوعی به‌عنوان یک نیروی خوب عمل کند، آسیب‌های احتمالی را کاهش داده و تأثیر مثبت خود را بر جامعه به حداکثر برساند.

هوش مصنوعی مسئولانه

معادل انگلیسی: Responsible AI

تعریف

هوش مصنوعی مسئولانه به عمل توسعه، استقرار و مدیریت سیستم‌های هوش مصنوعی به نحوی اشاره دارد که اصول اخلاقی، از جمله انصاف، شفافیت، پاسخگویی و فراگیری را حفظ کند، درحالی‌که آسیب‌های احتمالی را به حداقل می‌رساند.

اهمیت

هوش مصنوعی مسئولانه تضمین می‌کند که فناوری‌های هوش مصنوعی با ارزش‌های اجتماعی و حقوق بشر هم‌راستا هستند، اعتماد را تقویت کرده و از سوءاستفاده جلوگیری می‌نماید. این حوزه برای یکپارچه‌سازی پایدار هوش مصنوعی در جامعه، پرداختن به مسائلی مانند سوگیری، حریم خصوصی و ایمنی، برای به حداکثر رساندن مزایای آن برای بشریت ضروری است.

هوش مصنوعی قابل ممیزی

معادل انگلیسی: Auditable AI

تعریف

هوش مصنوعی قابل ممیزی به سیستم‌هایی اشاره دارد که با مکانیزم‌هایی طراحی شده‌اند که به فرایندها، تصمیمات و نتایج آن‌ها اجازه می‌دهد توسط انسان‌ها یا سیستم‌های خارجی بررسی، تأیید و ردیابی شوند. این شامل نگهداری لاگ‌ها، ارائه مستندات دقیق و امکان تحلیل پس از وقوع است.

اهمیت

هوش مصنوعی قابل ممیزی پاسخگویی و انطباق با استانداردهای نظارتی را با شفاف و قابل تأییدکردن سیستم‌های هوش مصنوعی تضمین می‌کند. این حوزه برای ایجاد اعتماد به کاربردهای هوش مصنوعی، به‌ویژه در زمینه‌های حساس مانند مالی، مراقبت‌های بهداشتی و سیستم‌های حقوقی که درک منطق پشت تصمیمات هوش مصنوعی حیاتی است، ضروری است.

پردازش زبان طبیعی

معادل انگلیسی: Natural Language Processing (NLP)

تعریف

پردازش زبان طبیعی (NLP) حوزه‌ای از هوش مصنوعی است که بر توانمندسازی ماشین‌ها برای درک، تفسیر، تولید و تعامل با استفاده از زبان‌های انسانی تمرکز دارد. این حوزه شامل وظایفی مانند تحلیل متن، ترجمه ماشینی، تشخیص گفتار و تولید زبان است.

اهمیت

NLP شکاف بین ارتباطات انسانی و پردازش ماشینی را پر می‌کند، و کاربردهایی مانند ترجمه زبان، تحلیل احساسات، دستیارهای مجازی و چت‌بات‌ها را تسهیل می‌نماید. پیشرفت‌های آن، نوآوری را در زمینه‌هایی از آموزش تا مراقبت‌های بهداشتی با کاربرپسندتر کردن فناوری هدایت می‌کند.

مدل‌های بزرگ

معادل انگلیسی: Large Models

تعریف

مدل‌های بزرگ، یا مدل‌های هوش مصنوعی در مقیاس بزرگ، سیستم‌های یادگیری ماشین پیشرفته‌ای با میلیاردها یا حتی تریلیون‌ها پارامتر هستند که بر روی مجموعه‌داده‌های گسترده و متنوعی آموزش دیده‌اند تا طیف گسترده‌ای از وظایف را انجام دهند. این شامل معماری‌هایی مانند GPT، BERT و سایر مدل‌های مبتنی بر ترانسفورمر است که برای مقیاس‌پذیری و تطبیق‌پذیری بالا طراحی شده‌اند.

اهمیت

مدل‌های بزرگ به طور قابل‌توجهی قابلیت‌های هوش مصنوعی را پیشرفت داده‌اند، و به نتایج پیشرفته‌ای در زمینه‌هایی مانند پردازش زبان طبیعی، بینایی کامپیوتری و کارهای چندوجهی دست یافته‌اند. آن‌ها به‌عنوان ستون فقرات تحقیقات و کاربردهای مدرن هوش مصنوعی عمل می‌کنند، درحالی‌که چالش‌هایی مانند تقاضای بالای منابع و تأثیرات زیست‌محیطی را نیز به همراه دارند.

مدل‌های زبانی بزرگ

معادل انگلیسی: Large Language Models (LLMs)

تعریف

مدل‌های زبانی بزرگ (LLMs) زیرمجموعه‌ای از مدل‌های بزرگ هستند که به طور خاص برای کارهای پردازش زبان طبیعی طراحی شده‌اند. بر اساس معماری‌هایی مانند ترانسفورمرها، این مدل‌ها بر روی مقادیر عظیمی از داده‌های متنی آموزش می‌بینند تا زبان شبیه به انسان را درک، پردازش و تولید کنند. نمونه‌هایی از آن‌ها شامل GPT، BERT و سیستم‌های مشابه است.

اهمیت

LLMs پردازش زبان طبیعی را با امکان عملکرد پیشرفته در خلاصه‌سازی متن، ترجمه زبان، پاسخ به سؤالات و هوش مصنوعی مکالمه‌ای متحول کرده‌اند. توانایی آن‌ها در تولید پاسخ‌های منسجم، کاربردها در تحقیقات، خدمات مشتری و تولید محتوا را تغییر داده و نوآوری را در صنایع مختلف هدایت می‌کند.

هوش مصنوعی چندوجهی

معادل انگلیسی: Multimodal AI

تعریف

هوش مصنوعی چندوجهی به سیستم‌های هوش مصنوعی اشاره دارد که می‌توانند چندین نوع داده یا ورودی، مانند متن، تصاویر، صدا و ویدئو را برای انجام کارها یا تصمیم‌گیری پردازش و یکپارچه کنند. این نوع هوش مصنوعی با ترکیب اطلاعات از وجه‌های مختلف، درک جامعی را امکان‌پذیر می‌سازد.

اهمیت

هوش مصنوعی چندوجهی، تطبیق‌پذیری و قدرت سیستم‌های هوش مصنوعی را افزایش می‌دهد، و آن‌ها را قادر به حل مسائل پیچیده‌ای؛ مانند پاسخ به سؤالات بصری، کپشن‌نویسی ویدئو و بازیابی چندوجهی می‌کند. این نوع هوش مصنوعی، قابلیت‌های هوش مصنوعی را به ادراک و استدلال شبیه به انسان که در آن حواس چندگانه به طور یکپارچه می‌شوند، نزدیک‌تر می‌سازد.

شبکه‌های عصبی بازگشتی

معادل انگلیسی: Recurrent Neural Networks (RNNs)

تعریف

شبکه‌های عصبی بازگشتی (RNNs) دسته‌ای از شبکه‌های عصبی هستند که برای پردازش داده‌های متوالی طراحی شده‌اند، جایی که خروجی یک مرحله قبلی به‌عنوان ورودی برای مرحله فعلی استفاده می‌شود. این معماری به RNNs اجازه می‌دهد تا وابستگی‌های زمانی در داده‌ها را ثبت کنند.

اهمیت

RNNs برای کارهایی که شامل داده‌های متوالی یا سری‌های زمانی هستند، مانند تشخیص گفتار، پردازش زبان طبیعی و پیش‌بینی مالی، ضروری هستند. توانایی آن‌ها در مدل‌سازی زمینه در طول زمان آن‌ها را برای درک الگوها در مجموعه‌داده‌های پویا بی‌ارزش می‌سازد.

حافظه کوتاه‌مدت طولانی

معادل انگلیسی: Long Short-Term Memory (LSTM)

تعریف

LSTMها نوعی تخصصی از شبکه عصبی بازگشتی (RNN) هستند که برای غلبه بر محدودیت‌های RNNهای استاندارد با مدیریت مؤثر وابستگی‌های بلندمدت در داده‌های متوالی طراحی شده‌اند. آن‌ها از سلول‌های حافظه و گیت‌ها برای کنترل جریان اطلاعات استفاده می‌کنند، و مدیریت بهتر کارهای مبتنی بر سری‌های زمانی و توالی را امکان‌پذیر می‌سازند.

اهمیت

LSTMها مشکل گرادیان ناپدیدشونده را که در RNNهای سنتی وجود دارد، حل می‌کنند که باعث می‌شود برای کارهایی مانند تشخیص گفتار، ترجمه ماشینی و پیش‌بینی قیمت سهام بسیار مؤثر باشند. توانایی آن‌ها در ثبت زمینه بلندمدت، آن‌ها را به یک سنگ بنا در پردازش داده‌های متوالی قبل از ظهور مدل‌های مبتنی بر ترانسفورمر تبدیل کرده است.

شبکه‌های عصبی کانولوشنی

معادل انگلیسی: Convolutional Neural Networks (CNNs)

تعریف

شبکه‌های عصبی کانولوشنی (CNNs) دسته‌ای از مدل‌های یادگیری عمیق هستند که به طور خاص برای پردازش داده‌های شبیه به گرید، مانند تصاویر، طراحی شده‌اند. آن‌ها از لایه‌های کانولوشنی برای استخراج ویژگی‌های سلسله‌مراتبی استفاده می‌کنند که آن‌ها را برای داده‌های مکانی بسیار مؤثر می‌سازد.

اهمیت

CNNها پایه و اساس کارهای مدرن بینایی کامپیوتری هستند که باعث پیشرفت‌های چشمگیر در تشخیص تصویر، تشخیص اشیا و تحلیل ویدئو شده‌اند. کارایی و دقتشان، آن‌ها را برای کاربردهایی مانند تصویربرداری پزشکی، رانندگی خودران و تشخیص چهره ضروری می‌سازد.

بینایی کامپیوتری

معادل انگلیسی: Computer Vision

تعریف

بینایی کامپیوتری حوزه‌ای از هوش مصنوعی است که بر توانمندسازی ماشین‌ها برای تفسیر و درک اطلاعات بصری از جهان، مانند تصاویر و ویدئوها، تمرکز دارد. این حوزه شامل کارهایی مانند تشخیص اشیا، تقسیم‌بندی تصویر و تشخیص چهره است.

اهمیت

بینایی کامپیوتری کاربردهای متعددی از جمله وسایل نقلیه خودران، تصویربرداری پزشکی و سیستم‌های امنیتی را قدرت می‌بخشد. توانایی آن در پردازش و تحلیل داده‌های بصری، اتوماسیون، ایمنی و تصمیم‌گیری را در زمینه‌های مختلف افزایش می‌دهد.

برنامه‌ریزی

معادل انگلیسی: Planning

تعریف

برنامه‌ریزی در هوش مصنوعی به فرایند تولید یک توالی از اقدامات یا تصمیمات برای دستیابی به اهداف یا مقاصد خاص، اغلب تحت محدودیت‌ها، اشاره دارد. این شامل استدلال در مورد حالت‌های آینده و تعیین بهترین یا ممکن‌ترین مسیر عمل است.

اهمیت

برنامه‌ریزی برای توانمندسازی سیستم‌های هوش مصنوعی برای عملکرد خودمختار و حل مسائل پیچیده در حوزه‌هایی مانند لجستیک، رباتیک و بازی‌های کامپیوتری حیاتی است. با پیش‌بینی نتایج و بهینه‌سازی اقدامات، برنامه‌ریزی کارایی و قابلیت اطمینان کاربردهای هوش مصنوعی را افزایش می‌دهد.

زمان‌بندی

معادل انگلیسی: Scheduling

تعریف

زمان‌بندی در هوش مصنوعی شامل تخصیص منابع، وظایف یا شکاف‌های زمانی برای بهینه‌سازی عملیات یا برآورده‌کردن اهداف خاص است. این حوزه به مسائلی مانند اولویت‌بندی وظایف، مدیریت منابع و رعایت ضرب‌الاجل‌ها می‌پردازد.

اهمیت

زمان‌بندی برای استفاده کارآمد از منابع در حوزه‌هایی مانند تولید، مدیریت پروژه و محاسبات ضروری است. سیستم‌های زمان‌بندی مبتنی بر هوش مصنوعی با مدیریت الزامات پویا و پیچیده، بهره‌وری و تطبیق‌پذیری را بهبود می‌بخشند.

رباتیک

معادل انگلیسی: Robotics

تعریف

رباتیک یک حوزه بین‌رشته‌ای است که هوش مصنوعی، مهندسی و علوم کامپیوتر را برای طراحی و توسعه ربات‌هایی که قادر به انجام وظایف به‌صورت خودمختار یا نیمه‌خودمختار هستند، ترکیب می‌کند. هوش مصنوعی در رباتیک، ادراک، برنامه‌ریزی و تصمیم‌گیری را امکان‌پذیر می‌سازد.

اهمیت

رباتیک با خودکارسازی کارهای تکراری یا خطرناک، بهبود دقت و افزایش قابلیت‌ها در زمینه‌هایی مانند تولید، مراقبت‌های بهداشتی و اکتشاف، صنایع را متحول می‌کند. ربات‌های مبتنی بر هوش مصنوعی با مدیریت چالش‌های پیچیده در دنیای واقعی، دامنه بهره‌وری و نوآوری انسانی را گسترش می‌دهند.

منبع: MIT AI Glossary/Dictionary

یادداشت همکاران

چالش‌ها و راهکارهای اشتراک‌گذاری محصولات داده‌محور

روتیتر را وارد کنید.

چالش‌ها و راهکارهای اشتراک‌گذاری محصولات داده‌محور

لیلا نظری، مدیر توسعه کسب‌وکار داتا

تولید و توسعه محصولات و سرویس‌های مبتنی بر داده در سال‌های اخیر در ایران، با رشد چشمگیری همراه بوده است و با سرعت قابل‌توجهی به سمت آینده حرکت می‌کند، اگر چالش‌های مرتبط با توسعه‌پذیری فنی این محصولات را کنار بگذاریم، موضوع اشتراک‌گذاری خروجی‌های محصولات داده‌محور که در نهایت چرخه توسعه این دست محصولات رو کامل می‌کند، چالش بزرگی است که به‌شدت در فضای اکوسیستم داده‌ای کشور درک می‌شود.

باوجود تلاش‌های فراوان در طراحی مدل‌ها و الگوریتم‌های تحلیلی، اغلب این محصولات پشت درهای بسته باقی می‌مانند و به سرویس‌های قابل‌استفاده برای سایر بازیگران اکوسیستم تبدیل نمی‌شوند. دلیل پیچیدگی موضوع اشتراک‌گذاری خروجی محصولات مبتنی بر تحلیل داده در کشور ما رو می‌توان به ۴ دسته موضوعی زیر تقسیم کرد:

1.       مالکیت‌گرایی بر تحلیل

سازمان‌ها حتی در مواردی که خروجی یک مدل تحلیلی قابلیت استفاده گسترده در صنایع مختلف را دارد آن را به چشم یک دارایی محرمانه درون‌سازمانی می‌بینند و این نگاه محافظه‌کارانه ناشی از نگرانی آنها درباره افشای مزیت رقابتی است.

2.     ابهام حقوقی در اشتراک تحلیل و سرویس

نحوه تعریف مسئولیت حقوقی خروجی‌های مدل‌های تحلیلی در تعامل با داده‌های سازمان‌های دیگر، در خلأ قانونی قرار دارد. نبود چارچوب‌های شفاف در حوزه مالکیت فکری، مسئولیت‌پذیری و حقوق مصرف‌کننده باعث شده است تا تمایل به اشتراک به حداقل ممکن برسد.

3.    فقدان مدل درآمدی پایدار برای محصولات تحلیلی

بسیاری از شرکت‌ها نسبت به درآمدزایی از یک مدل یا API تردید دارند. نبود تجربه‌های موفق در این حوزه، باعث می‌شود مدیران نسبت به سرمایه‌گذاری روی محصول‌سازی داده‌محور مردد بمانند.

4.      بی‌اعتمادی بین سازمان‌ها در همکاری داده‌ای

تعامل بین سازمانی در حوزه داده، نیازمند فرهنگ شفاف‌سازی، استانداردسازی و پایبندی به SLA است؛ مؤلفه‌هایی که هنوز در فضای کسب‌وکار ایران به بلوغ نرسیده‌اند.

چه باید کرد؟

برای ‌آنکه مدل‌های تحلیلی از ابزارهایی صرفاً درون‌سازمانی به سرویس‌های قابل اشتراک و قابل‌فروش در سطح اکوسیستم تبدیل شوند باید اقداماتی در سطوح مختلف انجام شود:

اگر در جایگاه تصمیم‌گیران یا تصمیم‌سازان توسعه کسب‌و‌کار سازمان هستیم، اقدامات زیر را در برنامه داشته باشیم:

  • تمرکز بر ایجاد هاب‌های تخصصی محصولات داده‌محور
  • آموزش و توانمندسازی تیم‌های محصول و حقوقی سازمان‌ برای ساخت سرویس‌های داده‌محور B2B
  • طراحی و ترویج مدل‌های کسب‌وکاری پایدار مثل پرداخت به‌ازای مصرف (pay-per-use) و اشتراک (subscription)  برای سرویس‌های تحلیلی
  • ایجاد فرهنگ‌سازمانی اشتراک‌مدار

اگر در جایگاه قانون‌گذار یا سیاست‌گذاران بالادستی هستیم، اقدامات زیر را در قالب سیاست‌های کلان در برنامه‌های خود قرار دهیم:

  • تدوین استانداردهای فنی و حقوقی برای API ها، مدل‌های تحلیلی و خدمات مبتنی بر هوش مصنوعی متناسب با سرعت نیاز و رشد کسب‌و‌کارهای این حوزه
  • حمایت از شکل‌گیری نهادهای میانی و شتاب‌دهنده‌های تخصصی در حوزه داده و هوش مصنوعی
  • ایجاد سازوکارهای تنظیم‌گری پویا و انطباق‌پذیر
  • توسعه زیرساخت‌های داده‌ای و محاسباتی ملی

در دنیای امروز، توانایی استخراج داده یک مهارت پایه است. آنچه تمایز ایجاد می‌کند، قدرت ساختن، بسته‌بندی و به‌اشتراک‌گذاری تحلیل‌ها و مدل‌های هوشمند در قالب سرویس‌هایی مقیاس‌پذیر است. اکوسیستم دیجیتال ایران، برای رسیدن به مرحله بهره‌وری از تحلیل نیاز دارد که از درون‌گرایی داده‌ای عبور کرده و به سمت مشارکت‌درساخت زیرساخت‌های تحلیل اشتراکی حرکت کند. این زیرساخت‌ها با ایجاد امکان تبادل داده‌ها، الگوریتم‌ها و سرویس‌های هوشمند میان بازیگران مختلف، زمینه همکاری و هم‌افزایی در اکوسیستم را فراهم می‌آورند.


این یادداشت در رسانه راه پرداخت منتشر شده است.


هنر اجرای موفق سامانه‌های داده‎محور؛ تجربه‌ها و درس‌ها

روتیتر را وارد کنید.

هنر اجرای موفق سامانه‌های داده‌‎محور؛ تجربه‌ها و درس‌ها

ریحانه کوثری-مدیر محصول شرکت داتا

طراحی و اجرای سامانه‌های داده‌محور اغلب با شور و اشتیاق فراوان شروع می‌شوند، اما بسیاری از آن‌ها در میانه‌ی راه با مشکلات جدی روبه‌رو می‌شوند یا به نتایج مطلوب نمی‌رسند. آمارها تصویر روشنی ترسیم می‌کنند: به گزارش گارتنر بیش از ۸۵٪ از پروژه‌های کلان‌داده در جهان به اهداف مورد انتظار نمی‌رسند و نزدیک به یک‌سوم پروژه‌های نرم‌افزاری پیش از تکمیل متوقف می‌شوند. این ارقام نه‌تنها یادآور دشواری مسیر هستند، بلکه نشان می‌دهند موفقیت حاصل مجموعه‌ای از انتخاب‌های دقیق، هم‌راستایی با نیاز واقعی کسب‌وکار و پایبندی به اصول مهندسی نرم‌افزار است. تجربه ما در «داتا» می‌گوید که هر پروژه، فراتر از خطوط کد و نمودارهای داده، سفری است میان ایده و واقعیت؛ سفری که در آن مهارت فنی تیم، ارتباط با واقعیت کسب‌وکار و نیاز کارفرما  و آینده‌نگری سه ستون اصلی عبور از مسیر پرچالش موفقیت‌اند.

وقتی اعضای تیم از دانش و تجربه‌ی کافی در زمینه‌هایی مانند تحلیل سیستم، برنامه‌نویسی، یا مدیریت پروژه برخوردار نباشند، تصمیم‌های نادرست اجتناب‌ناپذیر است. این تصمیم‌ها می‌توانند پروژه را به مسیرهای پرهزینه و ناکارآمد هدایت کنند. برای مثال، انتخاب فناوری نامناسب یا نادیده گرفتن اصول مهندسی نرم‌افزار می‌تواند مشکلات بزرگی ایجاد کند. آموزش هدفمند، استخدام افراد باتجربه و استفاده از مشاوران متخصص می‌توانند این شکاف‌های مهارتی را پر کنند. به همین ترتیب، عدم درک دقیق نیازهای کارفرما یا کاربران نهایی می‌تواند محصول نهایی را از انتظارات دور کند. همکاری نزدیک با کارفرما، مستندسازی دقیق نیازها و بازبینی مستمر خروجی‌های موقت می‌توانند از این مشکل جلوگیری کنند.

طراحی نامناسب سامانه نیز یکی دیگر از دلایل اصلی شکست پروژه‌هاست. معماری شلخته یا بدون آینده‌نگری باعث می‌شود سامانه در برابر تغییرات یا افزایش بار کاری شکننده شود و هزینه‌های نگهداری آن در آینده افزایش یابد. طراحی اصولی و ماژولار، توجه به نیازهای آینده و بازبینی طراحی، پیش از پیاده‌سازی می‌توانند به ساخت سامانه‌ای پایدار و قابل توسعه کمک کنند. علاوه بر این، تخمین نادرست زمان پروژه یا فشار برای تحویل زودهنگام می‌تواند کیفیت کار را کاهش و تیم را تحت استرس قرار دهد. استفاده از روش‌های چابک مانند اسکرام یا کانبان، تخمین واقع‌بینانه‌ی منابع و مدیریت شفاف انتظارات کارفرما می‌توانند این فشارها را کاهش دهند.

پیامدهای این مشکلات شامل تأخیر در تحویل پروژه، افزایش هزینه‌ها، کیفیت پایین محصول، نارضایتی کاربران و خستگی و دلسردی تیم است. سامانه‌های ضعیف‌طراحی‌شده نیز در آینده هزینه‌های سنگینی برای اصلاح و نگهداری ایجاد می‌کنند. برای پیشگیری از این مشکلات، باید بر تقویت مهارت‌های تیم، تحلیل دقیق نیازها، طراحی قوی و انعطاف‌پذیر و برنامه‌ریزی واقع‌بینانه تمرکز کرد. آموزش مداوم، همکاری نزدیک با کاربران نهایی، استفاده از معماری‌های استاندارد و مدیریت صحیح زمان و منابع می‌توانند احتمال موفقیت پروژه را به‌طور چشمگیری افزایش دهند.

در نهایت، موفقیت طراحی و اجرای سامانه‌های داده‌محور حاصل انضباط فکری، تصمیم‌گیری آگاهانه و سرمایه‌گذاری هدفمند بر دانش و کیفیت است و به نظارت مستمر، مدیریت دقیق فرآیند اجرا و اتخاذ رویکردی منظم و آینده‌نگر بستگی دارد. با سرمایه‌گذاری در آموزش، تحلیل دقیق، طراحی اصولی و مدیریت واقع‌بینانه، می‌توان نه‌تنها از شکست پروژه‌ها جلوگیری کرد، بلکه محصولاتی باکیفیت تولید کرد که رضایت کاربران را جلب کرده و انگیزه‌ی تیم را حفظ کند. این رویکرد به سازمان‌ها کمک می‌کند تا از منابع خود به بهترین شکل استفاده کنند و پروژه‌هایی پایدار و موفق به سرانجام برسانند. در نهایت، محصولی که با این نگاه ساخته می‌شود نه‌تنها نیاز امروز را پاسخ می‌دهد، بلکه برای تغییرات و فرصت‌های فردا آماده است. این همان جایی است که فناوری و داده، از ابزاری برای اجرا به سرمایه‌ای برای خلق آینده تبدیل می‌شوند.