پروژه مخفی *Q؛ هوش مصنوعی فرا انسانی هم‌اکنون در میان ما است؟

چند روزی است همه‌جا صحبت از پروژه‌ مخفی و ظاهراً خطرناک *Q است که می‌گویند اولین مدل هوش مصنوعی با قابلیت‌های فرا انسانی است.

شناسه خبر: ۳۸۸۷۶۴
پروژه مخفی *Q؛ هوش مصنوعی فرا انسانی هم‌اکنون در میان ما است؟

زومیت نوشت: چند روزی است همه‌جا صحبت از پروژه‌ مخفی و ظاهراً خطرناک *Q است که می‌گویند اولین مدل هوش مصنوعی با قابلیت‌های فرا انسانی است.

همین دو، سه هفته پیش بود که درهای همیشه بسته‌ی شرکت مرموز OpenAI، خالق هوش‌ مصنوعی ChatGPT، سرانجام به‌ طرز غافلگیرکننده‌ای به روی رسانه‌ها باز شد؛ هیئت‌مدیره به‌طور ناگهانی سم آلتمن ، مدیرعامل شرکت را برکنار کرد؛ صدها کارمند در اعتراض به این تصمیم تهدید به استعفا کردند؛ مایکروسافت پیش‌دستی کرد و به آلتمن پیشنهاد سمت مدیرعاملی واحد هوش مصنوعی داد؛ اما آلتمن دوباره به پست خود برگشت و رسانه‌ها کل ماجرا را از زوایای مختلف تجزیه‌و‌تحلیل کردند.

اما با تمام این گزارش‌ها و ماجراهای دراماتیک، هنوز دقیقا نمی‌دانیم OpenAI چگونه تکنولوژی خود را توسعه می‌دهد یا آلتمن برای پروژه‌های قدرتمندتر آینده چه نقشه‌هایی در سر دارد.

درک بسیار محدود ما از برنامه‌های OpenAI خودش را زمانی آشکار کرد که رویترز و وب‌سایت تکنولوژی‌محور The Information در دو گزارش جداگانه نوشتند که پیش از اخراج آلتمن، چندین پژوهشگر OpenAI نگرانی‌هایی درباره‌ی پیشرفت بزرگ پروژه‌ای ظاهراً خطرناک مطرح کرده بودند؛ پروژه‌ی الگوریتم‌محوری با نام مرموز *Q (بخوانید کیواستار).

رویترز به نقل از منبعی ناشناس نوشت: «مدل جدید به‌کمک منابع محاسباتی عظیم توانست برخی مسائل ریاضی خاص را حل کند. اگرچه این مسائل در سطح مقطع ابتدایی بود، موفقیت صددرصد در حل آن‌ها پژوهشگران را به موفقیت آینده‌ی *Q بسیار خوش‌بین کرده است.»

وب‌سایت The Information هم نوشت *Q پیشرفت چشم‌گیری است که به توسعه‌ی «مدل‌های هوش مصنوعی بسیار قدرتمندتر» منجر خواهد شد و اینکه «سرعت توسعه‌ی این پروژه برخی از پژوهشگرانی را که نگران امنیت هوش مصنوعی بودند، ترساند.»

1

سم آلتمن، آشناترین چهره‌ی صنعت هوش مصنوعی

همین دو گزارش کافی بود تا آتش گمانه‌زنی‌ها و نگرانی‌ها را شعله‌ور کند. آیا *Q به‌نوعی به اخراج آلتمن مرتبط بود؟ آیا این پروژه آنطور که شایعات می‌گویند، قدرتمند است؟ آیا می‌تواند نشانه‌ای از نزدیک‌تر شدن OpenAI به هدفش، یعنی دستیابی به AGI یا همان هوش‌‌مصنوعی در سطح فیلم‌های علمی‌تخیلی باشد؟ آیا الگوریتم *Q واقعا می‌تواند تسک‌های پیچیده را مثل یا حتی بهتر از انسان‌ها حل کند؟ آیا آخرالزمان رباتی از آنچه فکر می‌کردیم به ما نزدیک‌تر است؟

با اینکه یکی، دو هفته‌ای است نام پروژه‌ی مخفی *Q آشکار شده است، هنوز چیز زیادی از آن نمی‌دانیم. آلتمن هم در مصاحبه‌ی جدیدش با ورج وجود این پروژه را تایید کرد، اما گفت «درباره‌ی درز ناخوشایند این پروژه هیچ حرفی نمی‌توانم بزنم.» و صرفاً به گفتن یک سری جملات مبهم درباره‌ی «پیشرفت معنادار و سریع» و تلاش برای توسعه‌ی «امن و سودمند» پروژه‌های شرکت بسنده کرد.

پروژه‌ی مرموز *Q چه می‌تواند باشد؟

آنچه در گزارش‌ها خواندیم می‌گوید کیواستار الگوریتمی است که می‌تواند مسائل ریاضی مقطع ابتدایی را طوری که هرگز نمونه‌اش را ندیده‌ایم، حل کند. شاید فکر کنید حل این مسائل چندان قابل‌توجه نیست؛ به‌هرحال، اگر کودکی ۱۰، ۱۱ ساله بتواند آن‌ها را حل کند، پس حتی ضعیف‌ترین هوش مصنوعی هم باید به‌راحتی از پس حل آن برآید.

اما در دنیای AI داستان متفاوت است؛ طوری که برخی از پژوهشگران OpenAI ظاهراً بر این باورند که کیواستار می‌تواند اولین نشانه‌‌ی بهبود توانایی «استدلال» یا همان استفاده از منطق برای حل مسائل جدید در مدل‌های هوش مصنوعی باشد.

قدرت استدلال از عناصر کلیدی و کماکان غایب هوش مصنوعی قوی است

سال‌ها است پژوهشگران در تلاش‌اند مدل‌‌های هوش مصنوعی را به‌جایی برسانند تا بتوانند مسائل ریاضی را به‌درستی حل کنند. مدل‌های زبانی چون GPT-4 که در چت‌بات ChatGPT به‌کار رفته است، می‌توانند به‌طور بسیار محدودی از پس مسائل ریاضی برآیند، اما نه درحدی که در تمام سناریوها قابل‌اطمینان باشد.

ما درحال‌حاضر الگوریتم یا حتی معماری مناسبی نداریم که بتوانیم با استفاده از هوش مصنوعی، مسائل ریاضی را به‌طور قابل‌ اطمینانی حل کنیم. یادگیری عمیق و شبکه‌های عصبی موسوم‌به ترنسفورمر که زیربنای توسعه‌ی مدل‌های زبانی است، در پیدا کردن الگو و تشخیص گربه از درخت عالی هستند، اما صرف بهره‌مندی از این قابلیت برای دستیابی به هوش مصنوعی قوی کافی نیست.

جالب است بدانید برای تست قدرت استدلال مدل هوش مصنوعی از ریاضی به‌عنوان بنچ‌مارک استفاده می‌کنند؛‌ چون طرح مسئله‌ی جدید برای پژوهشگران ‌آسان است و رسیدن به راه‌حل به درک مفاهیم انتزاعی و برنامه‌ریزی گام‌به‌گام نیاز دارد.

اگر AGI افسارگسیخته شود، فاجعه جهانی رخ خواهد داد

توانایی استدلال یکی از عناصر کلیدی و درعین‌حال همچنان غایب سیستم‌های هوش مصنوعی هوشمندتر و همه‌منظوره است؛ همان‌ سیستمی که OpenAI آن را «هوش عمومی مصنوعی» معروف‌به AGI می‌نامد. به‌گفته‌ی این شرکت، چنین سیستمی اگر پا به دنیای واقعی بگذارد، در اکثر کارها از انسان بهتر خواهد بود و اگر روزی بخواهد از کنترل انسان خارج شود، فاجعه‌ی جهانی رخ خواهد داد.

زمانی‌که گزارش‌های مربوط به کیوستار را کنار هم می‌گذاریم و آن‌ها را به جنجالی‌ترین مشکلات هوش مصنوعی این روزها ربط می‌دهیم، به پروژه‌ای می‌رسیم که OpenAI آن را چیزی حدود هفت ماه پیش در ماه می معرفی کرد و مدعی شد که به‌کمک تکنیکی به‌نام «نظارت بر فرایند» (Process Supervision) به نتایج قدرتمند جدیدی دست پیدا کرده است.

در این پروژه، ایلیا سوتسکیور ، دانشمند ارشد و یکی از بنیان‌گذاران OpenAI نقش داشت که مهره‌ی اصلی اخراج سم آلتمن از شرکت بود؛ هرچند بعد از بحران OpenAI از تصمیمش برگشت و آلتمن را با آغوش باز پذیرفت. به‌گفته‌ی The Information، ایلیا رهبری توسعه‌ی کیواستار را برعهده داشته است.

1

ایلیا سوتسکیور رهبری توسعه‌ی کیواستار را برعهده داشته است

پروژه‌ی ماه می OpenAI بر کاهش اشتباهات منطقی مدل‌های زبانی بزرگ از طریق «نظارت بر فرایند» متمرکز بود. در نظارت بر فرایند، مدل هوش مصنوعی برای تجزیه‌ی مراحل موردنیاز حل مسئله آموزش داده می‌شود تا شانس الگوریتم برای رسیدن به پاسخ درست افزایش یابد.

این پروژه نشان داد که چگونه این تکنیک می‌تواند به مدل‌های زبانی بزرگ که اغلب در حل مسائل ریاضی ابتدایی دچار خطاهای ساده‌ای می‌شوند کمک کند با چنین مسائلی به‌طور مؤثرتری برخورد کنند.

به‌ باور بسیاری از متخصصان هوش مصنوعی، بهبود مدل‌های زبانی بزرگ گام بعدی در کاربردی‌تر کردن آن‌ها است. به‌گفته‌ی اندرو نگ ، استاد دانشگاه استنفورد که رهبری آزمایشگاه‌های هوش مصنوعی در گوگل و بایدو را بر عهده داشت، «مدل‌های زبانی بزرگ در حل مسائل ریاضی خیلی ماهر نیستند. البته ما انسان‌ها هم همین وضعیت را داریم. ولی خب، اگر یک قلم و کاغذ به من بدهید، ضرب من به‌مراتب از این مدل‌ها بهتر خواهد بود. هرچند من فکر می‌کنم بهبود مدل‌های زبانی با حافظه‌ای که بتواند الگوریتم ضرب را اجرا کند، آنقدرها کار سختی نیست.»

درباره‌ی ماهیت *Q سرنخ‌های دیگری هم وجود دارد. نام این پروژه ممکن است اشاره‌ای به «کیو-یادگیری» (Q-learning) باشد که درواقع شکلی از یادگیری تقویتی است که برای ساخت بات‌های بازی و بهبود ChatGPT به‌کار می‌رود و در آن، الگوریتم سعی می‌کند ازطریق بازخورد مثبت یا منفی، مسئله را حل کند.

برخی همچنین معتقدند که *Q ممکن است به الگوریتم جستجوی *A مرتبط باشد که در برنامه‌هایی برای پیدا کردن بهترین مسیر برای رسیدن به هدف به‌وفور استفاده می‌شود.

وب‌سایت The Information سرنخ دیگری به ما می‌دهد:

پیشرفت چشمگیر سوتسکیور در این پروژه به OpenAI اجازه داد بر محدودیت‌های دستیابی به داده‌های باکیفیت برای آموزش مدل‌های جدید غلبه کند. در این پروژه برای آموزش مدل‌های جدید از داده‌های تولید‌شده توسط کامپیوتر استفاده شده است، نه داده‌هایی که از دنیای واقعی یا همان اینترنت به دست آمده‌اند.

باتوجه به توضیحات The Information، این‌طور به نظر می‌رسد که در پروژه‌ی کیواستار، الگوریتم‌ها با داده‌های مصنوعی آموزش داده شده‌اند؛ روشی که اخیرا برای آموزش مدل‌های هوش مصنوعی قدرتمندتر به کار برده می‌شود.

وقتی تمام این سرنخ‌ها را کنار هم می‌گذاریم، به این نتیجه می‌رسیم که *Q ممکن است پروژه‌ای باشد که در آن از مقادیر عظیمی از داده‌های مصنوعی تولیدشده توسط کامپیوتر استفاده شده تا به‌کمک تکنیک یادگیری تقویتی، نوعی مدل زبانی بزرگ برای انجام وظایفی مثل محاسبات ریاضی ساده آموزش ببیند.

اگر بخواهیم داستان را از این هم پیچیده‌تر کنیم، نیتن لمبرت ، دانشمند حوزه‌ی یادگیری ماشین به‌تفصیل در مقاله‌ای درباره‌ی ماهیت احتمالی کیواستار نوشته است. به‌طور خلاصه، لمبرت معتقد است که در پروژه‌ی *Q از یادگیری تقویتی و چند تکنیک دیگر استفاده شده تا توانایی مدل زبانی بزرگ در حل تسک‌ها از طریق استدلال گام‌به‌گام بهبود پیدا کند.

او می‌گوید شاید این روش کمک کند ChatGPT در حل مسائل ریاضی بهتر شود، اما معلوم نیست این روش به توسعه‌ی سیستم‌ هوش مصنوعی‌ای منجر شده باشد که بتواند روزی از کنترل انسان بگریزد.

بالاخره کیواستار نوعی AGI است یا نه؟

راستش تا زمانی‌که خود OpenAI درباره‌ی ماهیت واقعی این پروژه حرفی نزند، نمی‌توان مطمئن بود. اما این شک و تردید یکی از قدیمی‌ترین حقایق درباره‌ی پژوهش‌های هوش مصنوعی را آشکار می‌کند؛ اینکه نظرها درباره‌ی پیشرفت‌های این حوزه در همان لحظه‌ای که رخ می‌دهند، به‌شدت متفاوت است.

زمان زیادی طول می‌کشد تا دانشمندان درباره‌ی اینکه آیا الگوریتم یا پروژه‌ای واقعا پیشرفت چشم‌گیری در حوزه‌ی هوش مصنوعی بوده است یا خیر، به توافق برسند؛ چراکه لازم است پژوهشگران بیشتری تأیید کنند ایده‌ی مطرح شده چقدر قابل‌ تکرار، موثر و به‌طور گسترده‌ای قابل‌ اجرا است.

مثلا الگوریتم ترنسفورمر را که زیربنای مدل‌های زبانی بزرگ و ChatGPT است، در نظر بگیرید؛ زمانی‌که محققان گوگل این الگوریتم را در سال ۲۰۱۷ توسعه دادند، از آن به‌عنوان پیشرفت مهمی یاد شد، اما افراد بسیار کمی پیش‌بینی می‌کردند که این الگوریتم برای هوش مصنوعی مولد امروزی تا این حد حیاتی باشد.

تنها زمانی‌که OpenAI با حجم عظیمی از داده و منابع محاسباتی سراغ ترنسفورمر آمد و آن را تقویت کرد، سایر شرکت‌های هوش مصنوعی هم به استفاده از این الگوریتم روی آوردند و مرزهای تولید تصویر، متن و حتی ویدیو به‌کمک AI را جابه‌جا کردند.

1

قدرت در حوزه هوش مصنوعی در دست چند شرکت مثل گوگل، اوپن‌ای‌آی و مایکروسافت تجمیع شده است

در پژوهش‌های هوش مصنوعی یا اصلا هر پژوهش علمی دیگری، ظهور و سقوط ایده‌ها مبتنی‌بر شایسته‌سالاری صرف نیست. معمولا دانشمندان و شرکت‌هایی که بیشترین منابع و بزرگ‌ترین تریبون را در اختیار دارند، بیشترین تأثیرگذاری را هم در این حوزه خواهند داشت.

پ ژوهش‌های هوش مصنوعی حالا به‌صورت کاملاً مخفیانه انجام می‌شوند

در صنعت هوش مصنوعی، قدرت در دست چند شرکت ازجمله متا، گوگل، اوپن‌ای‌آی، مایکروسافت و آنتروپیک تجمیع شده است. درحال‌حاضر، همین فرایند ناقص ایجاد اجماع بهترین چیزی است که داریم، اما هرروز محدودتر می‌شود؛ چراکه پژوهش‌هایی که زمانی عمدتاً جلوی چشمان همه انجام می‌شد، حالا به‌صورت کاملاً مخفیانه صورت می‌گیرد.

در طول ده سال گذشته و زمانی‌که شرکت‌های بزرگ فناوری از پتانسیل تجاری‌سازی فوق‌العاده‌ی هوش مصنوعی آگاه شدند، سعی کردند دانشجویان را با پیشنهادهای بسیار وسوسه‌انگیز از فضای دانشگاه دور کنند و به سیلیکون‌ولی بکشانند.

بسیاری از دانشجویان دکترا برای پیوستن به آزمایشگاه این شرکت‌‌ها دیگر منتظر دریافت مدرک خود نمی‌مانند و بسیاری از پژوهشگرانی که تصمیم می‌گیرند در دانشگاه بمانند، از همین شرکت‌ها برای انجام پروژه‌هایشان فاند دریافت می‌کنند.

این روزها، بسیاری از پژوهش‌های هوش مصنوعی در شرکت‌های تکنولوژی‌ای انجام می‌شود که در تلاشند باارزش‌ترین دستاوردهایشان را از چشم رقبای تجاری خود پنهان کنند.

اوپن‌ای‌آی از آن دسته شرکت‌هایی است که به صراحت اعلام کرده هدف از اجرای تمام پروژه‌هایش رسیدن به AGI است. این شرکت مرموز دلیل محرمانه بودن پروژه‌هایش را به خطرات هوش مصنوعی ربط داده و می‌گوید هر چیزی که بتواند راه رسیدن به ابرهوش را تسریع کند باید تحت نظارت و کنترل شدید قرار بگیرد، وگرنه ممکن است به تهدیدی علیه بشریت تبدیل شود.

البته OpenAI آشکارا اعتراف کرده که محرمانه نگه داشتن پروژه‌هایش اجازه می‌دهد فاصله‌اش را از رقبا حفظ کند. ایلیا سوتسکیور، دانشمند ارشد اوپن‌ای‌آی در ماه مارس به ورج گفت «توسعه‌ی GPT-4 کار آسانی نیست. تقریبا تمام کارمندان شرکت به مدت بسیار طولانی در توسعه‌ی این مدل زبانی درگیر بودند. شرکت‌های بسیار زیادی وجود دارند که می‌خواهند دقیقا همین کار ما را انجام دهند.»

آیا باید از پروژه‌ی *Q بترسیم؟

افرادی که مانند بنیان‌گذاران OpenAI از تهدید هوش مصنوعی علیه بشریت نگران هستند، از این می‌ترسند که قابلیت‌هایی مثل قدرت استدلال منجر به ظهور هوش مصنوعی افسارگسیخته شود. اگر چنین سیستم‌های هوش مصنوعی اجازه داشته باشند اهداف خودشان را تعیین کنند و در دنیای فیزیکی و دیجیتال دخالت کنند، دغدغه‌های امنیتی بزرگی ایجاد می‌شود.

اما اگرچه توانایی حل مسائل ریاضی ممکن است ما را یک قدم به سیستم‌های هوش مصنوعی قدرتمند نزدیک کند، حل این مدل مسائل به‌معنی ظهور ابرهوش نیست. البته این اولین باری نیست که مدل جدیدی جنجال دستیابی به AGI به راه انداخته است. سال گذشته، پژوهشگران درباره‌ی مدل همه‌کاره‌ی Gato که توسط دیپ‌مایند گوگل توسعه یافته است، همین نظر را داشتند.

جنجال و هیاهو بر سر هوش مصنوعی چیز تازه‌ای نیست

گاتو به‌گفته‌ی MIT Technology Review، سیستمی است که «چندین تسک مختلف را هم‌زمان یاد می‌گیرد و می‌تواند بین آن‌ها جابه‌جا شود و بدون فراموشی مهارت‌های قبلی، مهارت‌های جدید بیاموزد.» گاتو مدلی است که می‌تواند بازی‌های آتاری انجام دهد، برای تصاویر کپشن بنویسد، چت کند و حتی با بازوی رباتی واقعی، قطعه‌های مکعبی را روی هم بگذارد.

آن زمان، برخی از پژوهشگران AI مدعی شدند دیپ‌مایند «در شرف» دستیابی به AGI است، چون گاتو می‌تواند تسک‌های مختلف بسیاری را به‌خوبی انجام دهد. ماجرای ادعای خودآگاه شدن هوش مصنوعی LaMDA گوگل هم همین بود. جنجال و هیاهو بر سر هوش مصنوعی چیز تازه‌ای نیست، فقط هر بار از پروژه و شرکت دیگری سر در می‌آورد.

این جنجال‌ها شاید ابزار فوق‌العاده موثری در پرآوازه شدن نام شرکت‌ها باشند، اما آسیبی که به صنعت هوش مصنوعی وارد می‌کنند، بیشتر از سودشان است، چراکه حواس افراد را از مشکلات واقعی و ملموس هوش مصنوعی پرت می‌کنند.

هرچند شایعات درباره‌ی مدل هوش مصنوعی قدرتمند می‌تواند زنگ اخطاری برای صنعت تکنولوژیِ مقرارت‌گریز باشد؛ چیزی نمانده تا اتحادیه‌ی اروپا قانون هوش مصنوعی را نهایی کند.

این‌روزها، یکی از بزرگ‌ترین کشمکش‌ها بین قانون‌گذاران این است که آیا شرکت‌های تکنولوژی باید برای قانون‌مند کردن مدل‌های هوش مصنوعی خود قدرت بیشتری داشته باشند یا خیر. چند وقت پیش نیز اجلاس ایمنی هوش مصنوعی برای اولین‌بار در تاریخ برگزار شد تا پیش از افسارگسیخته‌ شدن هوش مصنوعی، برای کنترل آن چاره‌ای اندیشید.

درنهایت، می‌توان با اطمینان گفت تقریباً تمام شرکت‌های فعال در حوزه‌ی هوش مصنوعی به دنبال دستیابی به AGI هستند و OpenAI دوست دارد اول از همه به این هدف برسد. پژوهشگران این شرکت زمانی پیش‌بینی کرده بوده‌اند که تا رسیدن به AGI شاید فقط ده سال دیگر فاصله دارند. ازکجا معلوم؛ شاید *Q گام بزرگی در این مسیر باشد.

نظرات
پربازدیدترین خبرها