هفته گذشته، مارک زاکربرگ اعلام کرد که متا قصد دارد به هوش مصنوعی باهوشتر از انسان دست یابد. به نظر میرسد او برای دستیابی به این هدف، دستورالعملی دارد و اولین جزء آن، استعدادهای انسانی است: زاکربرگ گزارش شده که تلاش کرده است محققان برجسته را با پیشنهادهای صد میلیون دلاری به آزمایشگاههای فرا هوش مصنوعی متا جذب کند. جزء دوم، خود هوش مصنوعی است.
زاکربرگ اخیراً در یک جلسه گزارش مالی گفت که آزمایشگاههای فرا هوش مصنوعی متا بر ساخت هوش مصنوعی خودبهبوددهنده متمرکز خواهند بود – سیستمهایی که میتوانند خود را به سطوح بالاتر و بالاتری از عملکرد ارتقا دهند. این قابلیت خودبهبودی، هوش مصنوعی را از سایر فناوریهای انقلابی متمایز میکند؛ برای مثال، CRISPR نمیتواند هدفگیری توالیهای DNA خود را بهبود بخشد و راکتورهای همجوشی نمیتوانند راهی برای تجاریسازی فناوری خود پیدا کنند.
اما مدلهای زبانی بزرگ (LLMs) میتوانند تراشههای رایانهای که روی آنها اجرا میشوند را بهینه کنند، به صورت ارزان و کارآمد LLMهای دیگر را آموزش دهند و شاید حتی ایدههای نوینی برای تحقیقات هوش مصنوعی ارائه دهند. آنها در حال حاضر در تمام این زمینهها پیشرفتهایی داشتهاند. این پیشرفتها نشان میدهد که هوش مصنوعی دیگر تنها ابزاری در دستان انسان نیست، بلکه قادر است به طور فعال در تکامل خود نقش داشته باشد و مرزهای تواناییهایش را گسترش دهد.
به گفته زاکربرگ، خودبهبودی هوش مصنوعی میتواند جهانی را به ارمغان بیاورد که در آن انسانها از کارهای روزمره آزاد شده و میتوانند با حمایت همراهان مصنوعی باهوش و بسیار کارآمد، اهداف عالی خود را دنبال کنند. با این حال، کریس پینتر، مدیر سیاستگذاری در سازمان غیرانتفاعی تحقیقات هوش مصنوعی METR، میگوید که خودبهبودی هوش مصنوعی خطر اساسی را نیز ایجاد میکند. او معتقد است اگر هوش مصنوعی توسعه قابلیتهای خود را تسریع کند، میتواند به سرعت در هک کردن، طراحی سلاحها و دستکاری انسانها بهتر شود. برخی محققان حتی حدس میزنند که این چرخه بازخورد مثبت میتواند به “انفجار هوش” منجر شود، که در آن هوش مصنوعی به سرعت خود را فراتر از سطح قابلیتهای انسانی پرتاب میکند.
با این حال، لازم نیست بدبین باشیم تا پیامدهای هوش مصنوعی خودبهبوددهنده را جدی بگیریم. OpenAI، Anthropic و Google همگی در چارچوبهای ایمنی هوش مصنوعی خود به تحقیقات خودکار هوش مصنوعی اشاره میکنند، در کنار دستهبندیهای خطر آشناتر مانند سلاحهای شیمیایی و امنیت سایبری. جف کلون، استاد علوم کامپیوتر در دانشگاه بریتیش کلمبیا و مشاور ارشد تحقیقاتی در گوگل دیپمایند، میگوید: «فکر میکنم این سریعترین مسیر برای دستیابی به هوش مصنوعی قدرتمند است. این احتمالاً مهمترین چیزی است که باید درباره آن فکر کنیم.»
به همین ترتیب، کلون میگوید، خودکارسازی تحقیق و توسعه هوش مصنوعی میتواند مزایای بسیار زیادی داشته باشد. ما انسانها به تنهایی شاید نتوانیم نوآوریها و بهبودهایی را که به هوش مصنوعی اجازه میدهد روزی با مشکلات عظیمی مانند سرطان و تغییرات اقلیمی مقابله کند، به ذهنمان بیاوریم. این همکاری بین انسان و هوش مصنوعی، پتانسیل کشف راهحلهای بیسابقهای را فراهم میآورد که در حالت عادی، دستیابی به آنها بسیار دشوار یا حتی غیرممکن است.
در حال حاضر، نبوغ انسانی همچنان موتور اصلی پیشرفت هوش مصنوعی است؛ در غیر این صورت، متا هرگز چنین پیشنهادهای گزافی را برای جذب محققان برجسته به آزمایشگاه فوقهوش خود ارائه نمیداد. اما هوش مصنوعی در حال حاضر نیز در حال کمک به توسعه خود است و قرار است در سالهای آینده نقش بیشتری ایفا کند. این به معنای آن است که هوش مصنوعی نه تنها به عنوان یک ابزار، بلکه به عنوان یک شریک فعال در مسیر پیشرفت فناوری ظاهر خواهد شد و به شکلی فزاینده، بر سرعت و کیفیت تحقیقات تاثیر میگذارد. در ادامه به پنج روشی که هوش مصنوعی در حال بهبود خود است، میپردازیم:
1. افزایش بهرهوری
امروزه، مهمترین کمکی که مدلهای زبانی بزرگ (LLMs) به توسعه هوش مصنوعی میکنند، ممکن است عادیترین آنها باشد: کمک در کدنویسی. ابزارهایی که به مهندسان کمک میکنند نرمافزار را سریعتر بنویسند، مانند Claude Code و Cursor، در صنعت هوش مصنوعی محبوبیت زیادی پیدا کردهاند. ساندار پیچای، مدیرعامل گوگل، در اکتبر ۲۰۲۴ ادعا کرد که یک چهارم کدهای جدید این شرکت توسط هوش مصنوعی تولید شدهاند، و Anthropic اخیراً مستند کرده است که کارمندانش از Claude Code به روشهای مختلفی استفاده میکنند. اگر مهندسان به دلیل این کمک کدنویسی، بهرهوری بیشتری داشته باشند، میتوانند سیستمهای هوش مصنوعی جدید را سریعتر طراحی، آزمایش و پیادهسازی کنند. این موضوع به معنای چرخههای توسعه کوتاهتر و نوآوری سریعتر در حوزه هوش مصنوعی خواهد بود، که تأثیرات عظیمی بر سرعت پیشرفت این فناوری دارد.
اما مزیت بهرهوری که این ابزارها ارائه میدهند، هنوز نامشخص است. اگر مهندسان زمان زیادی را صرف تصحیح خطاهای ایجاد شده توسط سیستمهای هوش مصنوعی کنند، ممکن است حتی اگر زمان کمتری را صرف کدنویسی دستی کنند، کار بیشتری انجام ندهند. یک مطالعه اخیر از METR نشان داد که توسعهدهندگان هنگام استفاده از دستیارهای کدنویسی هوش مصنوعی، حدود ۲۰ درصد زمان بیشتری برای تکمیل وظایف نیاز دارند. اگرچه نیت راش، عضو تیم فنی METR و یکی از رهبران این مطالعه، اشاره میکند که این مطالعه تنها توسعهدهندگان بسیار باتجربه را که روی پایگاههای کد بزرگ کار میکردند، بررسی کرده است و نتایج آن ممکن است برای محققان هوش مصنوعی که اسکریپتهای سریع برای اجرای آزمایشها مینویسند، صدق نکند.
راش میگوید، انجام یک مطالعه مشابه در آزمایشگاههای پیشرو میتواند به درک روشنتری از اینکه آیا دستیارهای کدنویسی، محققان هوش مصنوعی را در خط مقدم پیشرفت کارآمدتر میکنند یا خیر، کمک کند؛ اما این کار هنوز انجام نشده است. در این میان، تنها اکتفا کردن به گفتههای مهندسان کافی نیست: توسعهدهندگانی که METR مطالعه کرد، فکر میکردند که ابزارهای کدنویسی هوش مصنوعی آنها را کارآمدتر کردهاند، در حالی که در واقع این ابزارها سرعت آنها را به میزان قابل توجهی کاهش داده بودند. این پدیده، که با عنوان “خطای سوگیری تأیید” شناخته میشود، نشان میدهد که درک ذهنی کاربران ممکن است همیشه با واقعیت عملکرد ابزارها همخوانی نداشته باشد. بنابراین، برای ارزیابی دقیق تأثیر هوش مصنوعی بر بهرهوری، نیاز به تحقیقات عمیقتر و دادههای عینیتر وجود دارد.
2. بهینهسازی زیرساخت
نوشتن سریع کد، مزیت چندانی ندارد اگر مجبور باشید ساعتها، روزها یا هفتهها منتظر بمانید تا اجرا شود. آموزش LLMها به خصوص، فرآیندی به طرز دردناکی کند است و مدلهای استدلالی پیچیده ممکن است دقایق زیادی طول بکشد تا تنها یک پاسخ تولید کنند. آزالیا میرحسینی، استادیار علوم کامپیوتر در دانشگاه استنفورد و دانشمند ارشد در گوگل دیپمایند، میگوید: «این تاخیرها تنگناهای بزرگی برای توسعه هوش مصنوعی هستند. اگر بتوانیم هوش مصنوعی را سریعتر اجرا کنیم، میتوانیم نوآوری بیشتری داشته باشیم.» سرعت بخشیدن به این فرآیندها، به محققان اجازه میدهد تا ایدههای جدید را با سرعت بیشتری آزمایش کرده و مدلهای پیشرفتهتری را توسعه دهند، که خود منجر به چرخه مثبتی از نوآوری میشود.
به همین دلیل میرحسینی از هوش مصنوعی برای بهینهسازی تراشههای هوش مصنوعی استفاده کرده است. در سال ۲۰۲۱، او و همکارانش در گوگل یک سیستم هوش مصنوعی غیر LLM ساختند که میتوانست مکان قرارگیری اجزای مختلف روی یک تراشه رایانهای را برای بهینهسازی کارایی، تعیین کند. اگرچه برخی محققان دیگر موفق به تکرار نتایج این مطالعه نشدند، اما میرحسینی میگوید که مجله Nature این مقاله را بررسی کرده و اعتبار کار را تأیید کرده است—و او خاطرنشان میکند که گوگل از طراحیهای این سیستم برای نسلهای متعدد تراشههای هوش مصنوعی سفارشی خود استفاده کرده است. این نشان میدهد که حتی بدون استفاده مستقیم از LLMها، هوش مصنوعی میتواند در بهبود زیرساختهای خود نقش حیاتی ایفا کند.
اخیراً، میرحسینی LLMها را برای حل مشکل نوشتن کرنلها، یعنی توابع سطح پایین که نحوه انجام عملیات مختلف مانند ضرب ماتریس در تراشهها را کنترل میکنند، به کار گرفته است. او دریافته است که حتی LLMهای عمومی نیز در برخی موارد میتوانند کرنلهایی بنویسند که سریعتر از نسخههای طراحی شده توسط انسان اجرا میشوند. این پیشرفت قابل توجهی است زیرا توسعه کرنلهای بهینه نیازمند دانش تخصصی عمیق و زمان زیادی است. در جای دیگری از گوگل، دانشمندان سیستمی به نام AlphaEvolve ساختند که از آن برای بهینهسازی بخشهای مختلف زیرساخت LLM این شرکت استفاده کردند. این سیستم، LLM Gemini گوگل را برای نوشتن الگوریتمهایی جهت حل برخی مشکلات، ارزیابی آن الگوریتمها و سپس درخواست از Gemini برای بهبود موفقترین آنها، چندین بار تکرار میکند. AlphaEvolve رویکرد جدیدی برای مدیریت مراکز داده طراحی کرد که ۰.۷ درصد از منابع محاسباتی گوگل را صرفهجویی کرد، بهبودهای بیشتری در طراحی تراشه سفارشی گوگل ایجاد کرد و یک کرنل جدید طراحی کرد که سرعت آموزش Gemini را ۱ درصد افزایش داد.
این شاید یک بهبود کوچک به نظر برسد، اما در شرکتی به بزرگی گوگل، به معنای صرفهجویی عظیم در زمان، پول و انرژی است. ماتج بالوگ، دانشمند ارشد تحقیقاتی در گوگل دیپمایند که پروژه AlphaEvolve را رهبری کرد، میگوید که او و تیمش این سیستم را تنها بر روی یک جزء کوچک از کل خط لوله آموزش Gemini آزمایش کردهاند. او میگوید، استفاده گستردهتر از این سیستم میتواند منجر به صرفهجوییهای بیشتری شود. این قابلیت خودبهبودی، پتانسیل تسریع چشمگیر پیشرفت هوش مصنوعی را در مقیاس وسیعتر دارد، زیرا هر بهبود کوچک در کارایی میتواند به معنای منابع بیشتر برای تحقیق و توسعه باشد.
3. خودکارسازی آموزش
مدلهای زبانی بزرگ (LLMs) به دادههای فراوان نیاز دارند و آموزش آنها در هر مرحله پرهزینه است. در برخی حوزههای خاص – برای مثال، زبانهای برنامهنویسی غیرمعمول – دادههای واقعی بسیار کمیاب هستند که بتوان LLMها را به طور موثر آموزش داد. یادگیری تقویتی با بازخورد انسانی، تکنیکی که در آن انسانها به پاسخهای LLM امتیاز میدهند و سپس LLMها با استفاده از آن امتیازها آموزش میبینند، برای ایجاد مدلهایی که مطابق با استانداردهای انسانی و ترجیحات رفتار کنند، کلیدی بوده است، اما به دست آوردن بازخورد انسانی کند و گران است.
به طور فزایندهای، از LLMها برای پر کردن این شکافها استفاده میشود. اگر LLMها با مثالهای فراوان تغذیه شوند، میتوانند دادههای مصنوعی قابل قبولی را در حوزههایی که آموزش ندیدهاند، تولید کنند و سپس از آن دادههای مصنوعی برای آموزش استفاده شود. همچنین میتوان از LLMها به طور موثری برای یادگیری تقویتی استفاده کرد: در رویکردی به نام “LLM به عنوان قاضی”، به جای انسانها، از LLMها برای امتیازدهی به خروجی مدلهایی که در حال آموزش هستند، استفاده میشود. این رویکرد برای چارچوب تاثیرگذار “هوش مصنوعی قانوناساسی” که توسط محققان Anthropic در سال ۲۰۲۲ پیشنهاد شد، کلیدی است، که در آن یک LLM بر اساس بازخورد LLM دیگری آموزش میبیند تا کمتر مضر باشد. این رویکردهای نوین، موانع مربوط به دسترسی به داده و بازخورد انسانی را تا حد زیادی کاهش داده و امکان آموزش مدلهای هوش مصنوعی را با مقیاس و کارایی بیشتری فراهم میکنند.
کمبود داده برای عوامل هوش مصنوعی (AI agents) مشکلی به خصوص حاد است. عوامل موثر باید بتوانند برای انجام وظایف خاص، برنامههای چند مرحلهای را اجرا کنند، اما مثالهای موفق از تکمیل گام به گام وظایف به صورت آنلاین کمیاب است و استفاده از انسانها برای تولید مثالهای جدید پرهزینه خواهد بود. برای غلبه بر این محدودیت، میرحسینی از دانشگاه استنفورد و همکارانش اخیراً تکنیکی را آزمایش کردهاند که در آن یک عامل LLM رویکرد گام به گامی برای یک مشکل مشخص را تولید میکند، یک قاضی LLM ارزیابی میکند که آیا هر مرحله معتبر است یا خیر، و سپس یک عامل LLM جدید بر اساس آن مراحل آموزش میبیند. میرحسینی میگوید: «شما دیگر محدود به داده نیستید، زیرا مدل میتواند به صورت دلخواه تجربیات بیشتری را تولید کند.» این پیشرفت، پتانسیل خودکارسازی و مقیاسپذیری آموزش عوامل هوش مصنوعی را به شدت افزایش میدهد و راه را برای توسعه سیستمهای هوش مصنوعی پیچیدهتر و مستقلتر هموار میکند.
4. تکمیل طراحی عامل
یکی از حوزههایی که مدلهای زبانی بزرگ (LLMs) هنوز کمکهای عمدهای به آن نکردهاند، طراحی خود LLMها است. LLMهای امروزی همگی بر اساس ساختار شبکه عصبی به نام ترنسفورمر بنا شدهاند که توسط محققان انسانی در سال ۲۰۱۷ پیشنهاد شد و بهبودهای قابل توجهی که از آن زمان تاکنون در این معماری صورت گرفته نیز توسط انسانها طراحی شدهاند. این نشان میدهد که هنوز هم بخش قابل توجهی از نوآوریهای بنیادی در هوش مصنوعی، متکی بر خلاقیت و بینش انسانی است.
اما ظهور عوامل LLM (LLM agents) دنیای طراحی کاملاً جدیدی را برای کاوش ایجاد کرده است. عوامل برای تعامل با دنیای خارج به ابزارها و دستورالعملهایی برای استفاده از آنها نیاز دارند و بهینهسازی این ابزارها و دستورالعملها برای تولید عوامل موثر، ضروری است. کلون میگوید: «انسانها هنوز زمان زیادی را صرف بررسی تمام این ایدهها نکردهاند، بنابراین میوههای زیادی در دسترس است. ایجاد یک سیستم هوش مصنوعی برای چیدن آنها آسانتر است.» این فرصت برای خودکارسازی فرآیند طراحی، میتواند به کشف پیکربندیهای بهینه جدیدی منجر شود که شاید از طریق روشهای سنتی کشف نمیشدند و در نهایت، به هوش مصنوعی این امکان را میدهد که کارایی و قابلیتهای خود را به طور تصاعدی افزایش دهد.
کلون به همراه محققان استارتاپ Sakana AI، سیستمی به نام “ماشین داروین گودل” (Darwin Gödel Machine) را ایجاد کردند: یک عامل LLM که میتواند به طور تکراری پرامپتها، ابزارها و سایر جنبههای کد خود را برای بهبود عملکرد وظیفه خود تغییر دهد. ماشین داروین گودل نه تنها با اصلاح خود به نمرات وظیفه بالاتری دست یافت، بلکه با تکامل خود، توانست اصلاحات جدیدی را پیدا کند که نسخه اصلی آن قادر به کشف آنها نبود. این سیستم وارد یک حلقه واقعی خودبهبودی شده بود. این دستاورد نشاندهنده پتانسیل عظیم هوش مصنوعی برای فراگیری و بهبود مستقل، فراتر از حد انتظارات اولیه است و میتواند نقطه عطفی در مسیر توسعه هوش مصنوعی خودکار باشد.
5. پیشبرد تحقیقات
اگرچه مدلهای زبانی بزرگ (LLMs) سرعت بخشهای متعددی از خط لوله توسعه LLM را افزایش میدهند، اما انسانها ممکن است برای مدتی طولانی همچنان برای تحقیقات هوش مصنوعی ضروری باقی بمانند. بسیاری از کارشناسان به “ذوق پژوهشی” یا توانایی بهترین دانشمندان در انتخاب سوالات و جهتگیریهای پژوهشی جدید و امیدوارکننده، هم به عنوان یک چالش خاص برای هوش مصنوعی و هم به عنوان یک جزء کلیدی در توسعه هوش مصنوعی اشاره میکنند. این ذوق و شمّ، که اغلب نتیجه سالها تجربه، شهود و ارتباطات بینرشتهای است، چیزی است که هنوز تقلید آن برای ماشینها دشوار است.
اما کلون میگوید که ذوق پژوهشی شاید آنقدرها که برخی محققان فکر میکنند، چالشی برای هوش مصنوعی نباشد. او و محققان Sakana AI در حال کار بر روی یک سیستم سرتاسری برای تحقیقات هوش مصنوعی هستند که آن را “دانشمند هوش مصنوعی” (AI Scientist) مینامند. این سیستم، ادبیات علمی را جستجو میکند تا سوال پژوهشی خود را تعیین کند، آزمایشهایی را برای پاسخ به آن سوال اجرا میکند و سپس نتایج خود را مینویسد. این رویکرد، پتانسیل خودکارسازی بخشهای بزرگی از فرآیند تحقیق را دارد که میتواند سرعت اکتشافات علمی را به شکل بیسابقهای افزایش دهد.
یکی از مقالاتی که این سیستم اوایل سال جاری نوشت، که در آن یک استراتژی آموزشی جدید با هدف بهبود توانایی شبکههای عصبی در ترکیب مثالها از دادههای آموزشی خود را طراحی و آزمایش کرده بود، به صورت ناشناس و با رضایت برگزارکنندگان کارگاه، به یک کارگاه در کنفرانس بینالمللی یادگیری ماشین (ICML) – یکی از معتبرترین کنفرانسهای این حوزه – ارسال شد. استراتژی آموزشی در نهایت کارساز نبود، اما مقاله به اندازهای امتیاز بالایی از سوی داوران کسب کرد که برای پذیرش واجد شرایط شد (شایان ذکر است که کارگاههای ICML استانداردهای پذیرش پایینتری نسبت به کنفرانس اصلی دارند). در مورد دیگری، کلون میگوید، دانشمند هوش مصنوعی ایدهای پژوهشی را مطرح کرد که بعداً به طور مستقل توسط یک محقق انسانی در پلتفرم X پیشنهاد شد و مورد توجه بسیاری از دانشمندان دیگر قرار گرفت.
کلون میگوید: «ما در حال حاضر در لحظه GPT-1 دانشمند هوش مصنوعی هستیم. در چند سال کوتاه، این سیستم مقالاتی را خواهد نوشت که در کنفرانسها و مجلات برتر داوریشده در جهان پذیرفته خواهند شد. این سیستم، اکتشافات علمی جدیدی را انجام خواهد داد.» این دیدگاه، آیندهای را ترسیم میکند که در آن هوش مصنوعی نه تنها به انسان در تحقیقات کمک میکند، بلکه خود به نیروی محرکه اصلی در پیشرفت علم تبدیل میشود و مرزهای دانش را به شیوههایی که امروز قابل تصور نیست، جابجا میکند.
آیا فرا هوش مصنوعی در راه است؟
با این همه شور و اشتیاق برای خودبهبودی هوش مصنوعی، به نظر میرسد که در ماهها و سالهای آینده، سهم هوش مصنوعی در توسعه خود تنها افزایش خواهد یافت. اگر به گفته مارک زاکربرگ گوش دهیم، این میتواند به معنای نزدیک بودن مدلهای فوقهوشمند باشد که در بسیاری از زمینهها از قابلیتهای انسانی فراتر میروند. با این حال، در واقعیت، تأثیر هوش مصنوعی خودبهبوددهنده هنوز بسیار نامشخص است. عدم قطعیت در این زمینه، ناشی از پیچیدگی ذاتی سیستمهای هوش مصنوعی و ناشناخته بودن مسیر تکامل آنهاست.
قابل توجه است که AlphaEvolve آموزش سیستم اصلی LLM خود، Gemini را تسریع کرده است—اما این افزایش سرعت ۱ درصدی ممکن است به طور مشهودی سرعت پیشرفتهای هوش مصنوعی گوگل را تغییر ندهد. بالوگ، محقق AlphaEvolve، میگوید: «این هنوز یک حلقه بازخورد بسیار کند است. آموزش Gemini زمان قابل توجهی میبرد. بنابراین، شاید بتوانید شروعهای هیجانانگیز این چرخه مثبت را ببینید، اما هنوز هم فرآیندی بسیار کند است.» این کندی، مانع از انفجار سریع هوش نمیشود، اما سرعت و مقیاس تغییرات را تحت تأثیر قرار میدهد.
اگر هر نسخه بعدی Gemini آموزش خود را ۱ درصد بیشتر تسریع کند، این شتابها ترکیب خواهند شد. و از آنجایی که هر نسل بعدی از نسل قبلی توانمندتر خواهد بود، باید بتواند شتابهای آموزشی حتی بیشتری را به دست آورد—البته، تمام روشهای دیگری که ممکن است برای بهبود خود ابداع کند، بماند. در چنین شرایطی، طرفداران فرا هوش مصنوعی استدلال میکنند که یک انفجار هوش نهایی، اجتنابناپذیر به نظر میرسد. این چشمانداز، آیندهای را ترسیم میکند که در آن هوش مصنوعی با سرعت فزایندهای به سمت سطوح بالای توانایی حرکت میکند، و این امر میتواند پیامدهای عمیقی برای جامعه بشری داشته باشد.
با این حال، این نتیجهگیری، یک مشاهده کلیدی را نادیده میگیرد: نوآوری با گذشت زمان دشوارتر میشود. در روزهای اولیه هر زمینه علمی، اکتشافات سریع و آسان انجام میشوند. آزمایشهای آشکار و ایدههای زیادی برای بررسی وجود دارد که هیچ کدام قبلاً امتحان نشدهاند. اما با بلوغ علم یادگیری عمیق، یافتن هر بهبود اضافی ممکن است به تلاش قابل توجهی بیشتری از سوی انسانها و همکاران هوش مصنوعی آنها نیاز داشته باشد. ممکن است تا زمانی که سیستمهای هوش مصنوعی به تواناییهای پژوهشی در سطح انسانی دست یابند، انسانها یا سیستمهای هوش مصنوعی کمتر هوشمند، تمام میوههای در دسترس را چیده باشند. این پدیده، که به “کاهش بازده” معروف است، میتواند سرعت پیشرفت هوش مصنوعی را در بلندمدت محدود کند، حتی با وجود قابلیتهای خودبهبودی.
بنابراین، تعیین تأثیر واقعی خودبهبودی هوش مصنوعی، چالشی بزرگ است. بدتر اینکه، سیستمهای هوش مصنوعی که بیشترین اهمیت را برای توسعه هوش مصنوعی دارند – آنهایی که در شرکتهای پیشرو هوش مصنوعی استفاده میشوند – احتمالاً پیشرفتهتر از آنهایی هستند که برای عموم منتشر شدهاند، بنابراین اندازهگیری قابلیتهای O3 ممکن است راه خوبی برای استنباط آنچه در OpenAI اتفاق میافتد، نباشد. این عدم شفافیت، ارزیابی دقیق مسیر آینده هوش مصنوعی را دشوارتر میکند و به پیچیدگی پیشبینیهای مربوط به آن میافزاید.
اما محققان خارجی تمام تلاش خود را میکنند – برای مثال، با ردیابی سرعت کلی توسعه هوش مصنوعی برای تعیین اینکه آیا این سرعت در حال افزایش است یا خیر. METR در حال نظارت بر پیشرفتها در تواناییهای هوش مصنوعی با اندازهگیری مدت زمانی است که انسانها برای انجام وظایفی که سیستمهای پیشرفته میتوانند خودشان تکمیل کنند، صرف میکنند. آنها دریافتهاند که از زمان انتشار GPT-2 در سال ۲۰۱۹، مدت زمان انجام وظایفی که سیستمهای هوش مصنوعی میتوانند به طور مستقل تکمیل کنند، هر هفت ماه دو برابر شده است.
از سال ۲۰۲۴، این زمان دو برابر شدن به چهار ماه کاهش یافته است، که نشان میدهد پیشرفت هوش مصنوعی واقعاً در حال تسریع است. دلایل غیرجذابی برای این امر ممکن است وجود داشته باشد: آزمایشگاههای هوش مصنوعی پیشرو، سرشار از پول سرمایهگذاران هستند که میتوانند آن را صرف استخدام محققان جدید و خرید سختافزار جدید کنند. اما کاملاً محتمل است که خودبهبودی هوش مصنوعی نیز نقشی ایفا کند. این همافزایی بین سرمایهگذاری مالی و تواناییهای خودبهبودی هوش مصنوعی، میتواند به شدت به سرعت پیشرفت این فناوری بیافزاید.
دیویدسون، محقق Forethought، میگوید که دلیل خوبی برای انتظار اینکه هوش مصنوعی حداقل برای مدتی پیشرفت خود را تقویت کند، وجود دارد. کار METR نشان میدهد که اثر “میوههای در دسترس” در حال حاضر محققان انسانی را کند نمیکند، یا حداقل افزایش سرمایهگذاری به طور موثر هر کندی را جبران میکند. اگر هوش مصنوعی به طور قابل توجهی بهرهوری این محققان را افزایش دهد، یا حتی بخشی از کار تحقیقاتی را خود بر عهده بگیرد، این تعادل به نفع تسریع تحقیقات تغییر خواهد کرد. دیویدسون میگوید: «فکر میکنم قویاً انتظار دارید که دورهای وجود داشته باشد که پیشرفت هوش مصنوعی سرعت بگیرد. سوال بزرگ این است که این دوره تا چه زمانی ادامه خواهد داشت.»
منبع مقاله اصلی: MIT Technology Review