پنج روشی که هوش مصنوعی در حال یادگیری برای بهبود خود است

هفته گذشته، مارک زاکربرگ اعلام کرد که متا قصد دارد به هوش مصنوعی باهوش‌تر از انسان دست یابد. به نظر می‌رسد او برای دستیابی به این هدف، دستورالعملی دارد و...

فهرست مطالب

هفته گذشته، مارک زاکربرگ اعلام کرد که متا قصد دارد به هوش مصنوعی باهوش‌تر از انسان دست یابد. به نظر می‌رسد او برای دستیابی به این هدف، دستورالعملی دارد و اولین جزء آن، استعدادهای انسانی است: زاکربرگ گزارش شده که تلاش کرده است محققان برجسته را با پیشنهادهای صد میلیون دلاری به آزمایشگاه‌های فرا هوش مصنوعی متا جذب کند. جزء دوم، خود هوش مصنوعی است.

زاکربرگ اخیراً در یک جلسه گزارش مالی گفت که آزمایشگاه‌های فرا هوش مصنوعی متا بر ساخت هوش مصنوعی خودبهبود‌دهنده متمرکز خواهند بود – سیستم‌هایی که می‌توانند خود را به سطوح بالاتر و بالاتری از عملکرد ارتقا دهند. این قابلیت خودبهبودی، هوش مصنوعی را از سایر فناوری‌های انقلابی متمایز می‌کند؛ برای مثال، CRISPR نمی‌تواند هدف‌گیری توالی‌های DNA خود را بهبود بخشد و راکتورهای همجوشی نمی‌توانند راهی برای تجاری‌سازی فناوری خود پیدا کنند.

اما مدل‌های زبانی بزرگ (LLMs) می‌توانند تراشه‌های رایانه‌ای که روی آن‌ها اجرا می‌شوند را بهینه کنند، به صورت ارزان و کارآمد LLMهای دیگر را آموزش دهند و شاید حتی ایده‌های نوینی برای تحقیقات هوش مصنوعی ارائه دهند. آنها در حال حاضر در تمام این زمینه‌ها پیشرفت‌هایی داشته‌اند. این پیشرفت‌ها نشان می‌دهد که هوش مصنوعی دیگر تنها ابزاری در دستان انسان نیست، بلکه قادر است به طور فعال در تکامل خود نقش داشته باشد و مرزهای توانایی‌هایش را گسترش دهد.

به گفته زاکربرگ، خودبهبودی هوش مصنوعی می‌تواند جهانی را به ارمغان بیاورد که در آن انسان‌ها از کارهای روزمره آزاد شده و می‌توانند با حمایت همراهان مصنوعی باهوش و بسیار کارآمد، اهداف عالی خود را دنبال کنند. با این حال، کریس پینتر، مدیر سیاست‌گذاری در سازمان غیرانتفاعی تحقیقات هوش مصنوعی METR، می‌گوید که خودبهبودی هوش مصنوعی خطر اساسی را نیز ایجاد می‌کند. او معتقد است اگر هوش مصنوعی توسعه قابلیت‌های خود را تسریع کند، می‌تواند به سرعت در هک کردن، طراحی سلاح‌ها و دستکاری انسان‌ها بهتر شود. برخی محققان حتی حدس می‌زنند که این چرخه بازخورد مثبت می‌تواند به “انفجار هوش” منجر شود، که در آن هوش مصنوعی به سرعت خود را فراتر از سطح قابلیت‌های انسانی پرتاب می‌کند.

با این حال، لازم نیست بدبین باشیم تا پیامدهای هوش مصنوعی خودبهبود‌دهنده را جدی بگیریم. OpenAI، Anthropic و Google همگی در چارچوب‌های ایمنی هوش مصنوعی خود به تحقیقات خودکار هوش مصنوعی اشاره می‌کنند، در کنار دسته‌بندی‌های خطر آشناتر مانند سلاح‌های شیمیایی و امنیت سایبری. جف کلون، استاد علوم کامپیوتر در دانشگاه بریتیش کلمبیا و مشاور ارشد تحقیقاتی در گوگل دیپ‌مایند، می‌گوید: «فکر می‌کنم این سریع‌ترین مسیر برای دستیابی به هوش مصنوعی قدرتمند است. این احتمالاً مهم‌ترین چیزی است که باید درباره آن فکر کنیم.»

conceptual illustration showing a robot head connected to wires

تصویر مرتبط: هوش مصنوعی در حال یادگیری چگونگی خلق خود است. منبع: MIT Technology Review

به همین ترتیب، کلون می‌گوید، خودکارسازی تحقیق و توسعه هوش مصنوعی می‌تواند مزایای بسیار زیادی داشته باشد. ما انسان‌ها به تنهایی شاید نتوانیم نوآوری‌ها و بهبودهایی را که به هوش مصنوعی اجازه می‌دهد روزی با مشکلات عظیمی مانند سرطان و تغییرات اقلیمی مقابله کند، به ذهنمان بیاوریم. این همکاری بین انسان و هوش مصنوعی، پتانسیل کشف راه‌حل‌های بی‌سابقه‌ای را فراهم می‌آورد که در حالت عادی، دستیابی به آن‌ها بسیار دشوار یا حتی غیرممکن است.

در حال حاضر، نبوغ انسانی همچنان موتور اصلی پیشرفت هوش مصنوعی است؛ در غیر این صورت، متا هرگز چنین پیشنهادهای گزافی را برای جذب محققان برجسته به آزمایشگاه فوق‌هوش خود ارائه نمی‌داد. اما هوش مصنوعی در حال حاضر نیز در حال کمک به توسعه خود است و قرار است در سال‌های آینده نقش بیشتری ایفا کند. این به معنای آن است که هوش مصنوعی نه تنها به عنوان یک ابزار، بلکه به عنوان یک شریک فعال در مسیر پیشرفت فناوری ظاهر خواهد شد و به شکلی فزاینده، بر سرعت و کیفیت تحقیقات تاثیر می‌گذارد. در ادامه به پنج روشی که هوش مصنوعی در حال بهبود خود است، می‌پردازیم:

1. افزایش بهره‌وری

امروزه، مهم‌ترین کمکی که مدل‌های زبانی بزرگ (LLMs) به توسعه هوش مصنوعی می‌کنند، ممکن است عادی‌ترین آن‌ها باشد: کمک در کدنویسی. ابزارهایی که به مهندسان کمک می‌کنند نرم‌افزار را سریع‌تر بنویسند، مانند Claude Code و Cursor، در صنعت هوش مصنوعی محبوبیت زیادی پیدا کرده‌اند. ساندار پیچای، مدیرعامل گوگل، در اکتبر ۲۰۲۴ ادعا کرد که یک چهارم کدهای جدید این شرکت توسط هوش مصنوعی تولید شده‌اند، و Anthropic اخیراً مستند کرده است که کارمندانش از Claude Code به روش‌های مختلفی استفاده می‌کنند. اگر مهندسان به دلیل این کمک کدنویسی، بهره‌وری بیشتری داشته باشند، می‌توانند سیستم‌های هوش مصنوعی جدید را سریع‌تر طراحی، آزمایش و پیاده‌سازی کنند. این موضوع به معنای چرخه‌های توسعه کوتاه‌تر و نوآوری سریع‌تر در حوزه هوش مصنوعی خواهد بود، که تأثیرات عظیمی بر سرعت پیشرفت این فناوری دارد.

اما مزیت بهره‌وری که این ابزارها ارائه می‌دهند، هنوز نامشخص است. اگر مهندسان زمان زیادی را صرف تصحیح خطاهای ایجاد شده توسط سیستم‌های هوش مصنوعی کنند، ممکن است حتی اگر زمان کمتری را صرف کدنویسی دستی کنند، کار بیشتری انجام ندهند. یک مطالعه اخیر از METR نشان داد که توسعه‌دهندگان هنگام استفاده از دستیارهای کدنویسی هوش مصنوعی، حدود ۲۰ درصد زمان بیشتری برای تکمیل وظایف نیاز دارند. اگرچه نیت راش، عضو تیم فنی METR و یکی از رهبران این مطالعه، اشاره می‌کند که این مطالعه تنها توسعه‌دهندگان بسیار باتجربه را که روی پایگاه‌های کد بزرگ کار می‌کردند، بررسی کرده است و نتایج آن ممکن است برای محققان هوش مصنوعی که اسکریپت‌های سریع برای اجرای آزمایش‌ها می‌نویسند، صدق نکند.

SonicWall از مشتریان می‌خواهد در بحبوحه حملات باج‌افزاری، SSLVPN را غیرفعال کنند

راش می‌گوید، انجام یک مطالعه مشابه در آزمایشگاه‌های پیشرو می‌تواند به درک روشن‌تری از اینکه آیا دستیارهای کدنویسی، محققان هوش مصنوعی را در خط مقدم پیشرفت کارآمدتر می‌کنند یا خیر، کمک کند؛ اما این کار هنوز انجام نشده است. در این میان، تنها اکتفا کردن به گفته‌های مهندسان کافی نیست: توسعه‌دهندگانی که METR مطالعه کرد، فکر می‌کردند که ابزارهای کدنویسی هوش مصنوعی آنها را کارآمدتر کرده‌اند، در حالی که در واقع این ابزارها سرعت آنها را به میزان قابل توجهی کاهش داده بودند. این پدیده، که با عنوان “خطای سوگیری تأیید” شناخته می‌شود، نشان می‌دهد که درک ذهنی کاربران ممکن است همیشه با واقعیت عملکرد ابزارها همخوانی نداشته باشد. بنابراین، برای ارزیابی دقیق تأثیر هوش مصنوعی بر بهره‌وری، نیاز به تحقیقات عمیق‌تر و داده‌های عینی‌تر وجود دارد.

2. بهینه‌سازی زیرساخت

نوشتن سریع کد، مزیت چندانی ندارد اگر مجبور باشید ساعت‌ها، روزها یا هفته‌ها منتظر بمانید تا اجرا شود. آموزش LLMها به خصوص، فرآیندی به طرز دردناکی کند است و مدل‌های استدلالی پیچیده ممکن است دقایق زیادی طول بکشد تا تنها یک پاسخ تولید کنند. آزالیا میرحسینی، استادیار علوم کامپیوتر در دانشگاه استنفورد و دانشمند ارشد در گوگل دیپ‌مایند، می‌گوید: «این تاخیرها تنگناهای بزرگی برای توسعه هوش مصنوعی هستند. اگر بتوانیم هوش مصنوعی را سریع‌تر اجرا کنیم، می‌توانیم نوآوری بیشتری داشته باشیم.» سرعت بخشیدن به این فرآیندها، به محققان اجازه می‌دهد تا ایده‌های جدید را با سرعت بیشتری آزمایش کرده و مدل‌های پیشرفته‌تری را توسعه دهند، که خود منجر به چرخه مثبتی از نوآوری می‌شود.

به همین دلیل میرحسینی از هوش مصنوعی برای بهینه‌سازی تراشه‌های هوش مصنوعی استفاده کرده است. در سال ۲۰۲۱، او و همکارانش در گوگل یک سیستم هوش مصنوعی غیر LLM ساختند که می‌توانست مکان قرارگیری اجزای مختلف روی یک تراشه رایانه‌ای را برای بهینه‌سازی کارایی، تعیین کند. اگرچه برخی محققان دیگر موفق به تکرار نتایج این مطالعه نشدند، اما میرحسینی می‌گوید که مجله Nature این مقاله را بررسی کرده و اعتبار کار را تأیید کرده است—و او خاطرنشان می‌کند که گوگل از طراحی‌های این سیستم برای نسل‌های متعدد تراشه‌های هوش مصنوعی سفارشی خود استفاده کرده است. این نشان می‌دهد که حتی بدون استفاده مستقیم از LLMها، هوش مصنوعی می‌تواند در بهبود زیرساخت‌های خود نقش حیاتی ایفا کند.

اخیراً، میرحسینی LLMها را برای حل مشکل نوشتن کرنل‌ها، یعنی توابع سطح پایین که نحوه انجام عملیات مختلف مانند ضرب ماتریس در تراشه‌ها را کنترل می‌کنند، به کار گرفته است. او دریافته است که حتی LLM‌های عمومی نیز در برخی موارد می‌توانند کرنل‌هایی بنویسند که سریع‌تر از نسخه‌های طراحی شده توسط انسان اجرا می‌شوند. این پیشرفت قابل توجهی است زیرا توسعه کرنل‌های بهینه نیازمند دانش تخصصی عمیق و زمان زیادی است. در جای دیگری از گوگل، دانشمندان سیستمی به نام AlphaEvolve ساختند که از آن برای بهینه‌سازی بخش‌های مختلف زیرساخت LLM این شرکت استفاده کردند. این سیستم، LLM Gemini گوگل را برای نوشتن الگوریتم‌هایی جهت حل برخی مشکلات، ارزیابی آن الگوریتم‌ها و سپس درخواست از Gemini برای بهبود موفق‌ترین آن‌ها، چندین بار تکرار می‌کند. AlphaEvolve رویکرد جدیدی برای مدیریت مراکز داده طراحی کرد که ۰.۷ درصد از منابع محاسباتی گوگل را صرفه‌جویی کرد، بهبودهای بیشتری در طراحی تراشه سفارشی گوگل ایجاد کرد و یک کرنل جدید طراحی کرد که سرعت آموزش Gemini را ۱ درصد افزایش داد.

این شاید یک بهبود کوچک به نظر برسد، اما در شرکتی به بزرگی گوگل، به معنای صرفه‌جویی عظیم در زمان، پول و انرژی است. ماتج بالوگ، دانشمند ارشد تحقیقاتی در گوگل دیپ‌مایند که پروژه AlphaEvolve را رهبری کرد، می‌گوید که او و تیمش این سیستم را تنها بر روی یک جزء کوچک از کل خط لوله آموزش Gemini آزمایش کرده‌اند. او می‌گوید، استفاده گسترده‌تر از این سیستم می‌تواند منجر به صرفه‌جویی‌های بیشتری شود. این قابلیت خودبهبودی، پتانسیل تسریع چشمگیر پیشرفت هوش مصنوعی را در مقیاس وسیع‌تر دارد، زیرا هر بهبود کوچک در کارایی می‌تواند به معنای منابع بیشتر برای تحقیق و توسعه باشد.

3. خودکارسازی آموزش

مدل‌های زبانی بزرگ (LLMs) به داده‌های فراوان نیاز دارند و آموزش آن‌ها در هر مرحله پرهزینه است. در برخی حوزه‌های خاص – برای مثال، زبان‌های برنامه‌نویسی غیرمعمول – داده‌های واقعی بسیار کمیاب هستند که بتوان LLMها را به طور موثر آموزش داد. یادگیری تقویتی با بازخورد انسانی، تکنیکی که در آن انسان‌ها به پاسخ‌های LLM امتیاز می‌دهند و سپس LLMها با استفاده از آن امتیازها آموزش می‌بینند، برای ایجاد مدل‌هایی که مطابق با استانداردهای انسانی و ترجیحات رفتار کنند، کلیدی بوده است، اما به دست آوردن بازخورد انسانی کند و گران است.

به طور فزاینده‌ای، از LLMها برای پر کردن این شکاف‌ها استفاده می‌شود. اگر LLMها با مثال‌های فراوان تغذیه شوند، می‌توانند داده‌های مصنوعی قابل قبولی را در حوزه‌هایی که آموزش ندیده‌اند، تولید کنند و سپس از آن داده‌های مصنوعی برای آموزش استفاده شود. همچنین می‌توان از LLMها به طور موثری برای یادگیری تقویتی استفاده کرد: در رویکردی به نام “LLM به عنوان قاضی”، به جای انسان‌ها، از LLMها برای امتیازدهی به خروجی مدل‌هایی که در حال آموزش هستند، استفاده می‌شود. این رویکرد برای چارچوب تاثیرگذار “هوش مصنوعی قانون‌اساسی” که توسط محققان Anthropic در سال ۲۰۲۲ پیشنهاد شد، کلیدی است، که در آن یک LLM بر اساس بازخورد LLM دیگری آموزش می‌بیند تا کمتر مضر باشد. این رویکردهای نوین، موانع مربوط به دسترسی به داده و بازخورد انسانی را تا حد زیادی کاهش داده و امکان آموزش مدل‌های هوش مصنوعی را با مقیاس و کارایی بیشتری فراهم می‌کنند.

AMD برای مدتی به سلطه چند دهه‌ای اینتل بر بازار پردازنده‌های سرور پایان داد

کمبود داده برای عوامل هوش مصنوعی (AI agents) مشکلی به خصوص حاد است. عوامل موثر باید بتوانند برای انجام وظایف خاص، برنامه‌های چند مرحله‌ای را اجرا کنند، اما مثال‌های موفق از تکمیل گام به گام وظایف به صورت آنلاین کمیاب است و استفاده از انسان‌ها برای تولید مثال‌های جدید پرهزینه خواهد بود. برای غلبه بر این محدودیت، میرحسینی از دانشگاه استنفورد و همکارانش اخیراً تکنیکی را آزمایش کرده‌اند که در آن یک عامل LLM رویکرد گام به گامی برای یک مشکل مشخص را تولید می‌کند، یک قاضی LLM ارزیابی می‌کند که آیا هر مرحله معتبر است یا خیر، و سپس یک عامل LLM جدید بر اساس آن مراحل آموزش می‌بیند. میرحسینی می‌گوید: «شما دیگر محدود به داده نیستید، زیرا مدل می‌تواند به صورت دلخواه تجربیات بیشتری را تولید کند.» این پیشرفت، پتانسیل خودکارسازی و مقیاس‌پذیری آموزش عوامل هوش مصنوعی را به شدت افزایش می‌دهد و راه را برای توسعه سیستم‌های هوش مصنوعی پیچیده‌تر و مستقل‌تر هموار می‌کند.

4. تکمیل طراحی عامل

یکی از حوزه‌هایی که مدل‌های زبانی بزرگ (LLMs) هنوز کمک‌های عمده‌ای به آن نکرده‌اند، طراحی خود LLMها است. LLM‌های امروزی همگی بر اساس ساختار شبکه عصبی به نام ترنسفورمر بنا شده‌اند که توسط محققان انسانی در سال ۲۰۱۷ پیشنهاد شد و بهبودهای قابل توجهی که از آن زمان تاکنون در این معماری صورت گرفته نیز توسط انسان‌ها طراحی شده‌اند. این نشان می‌دهد که هنوز هم بخش قابل توجهی از نوآوری‌های بنیادی در هوش مصنوعی، متکی بر خلاقیت و بینش انسانی است.

اما ظهور عوامل LLM (LLM agents) دنیای طراحی کاملاً جدیدی را برای کاوش ایجاد کرده است. عوامل برای تعامل با دنیای خارج به ابزارها و دستورالعمل‌هایی برای استفاده از آن‌ها نیاز دارند و بهینه‌سازی این ابزارها و دستورالعمل‌ها برای تولید عوامل موثر، ضروری است. کلون می‌گوید: «انسان‌ها هنوز زمان زیادی را صرف بررسی تمام این ایده‌ها نکرده‌اند، بنابراین میوه‌های زیادی در دسترس است. ایجاد یک سیستم هوش مصنوعی برای چیدن آن‌ها آسان‌تر است.» این فرصت برای خودکارسازی فرآیند طراحی، می‌تواند به کشف پیکربندی‌های بهینه جدیدی منجر شود که شاید از طریق روش‌های سنتی کشف نمی‌شدند و در نهایت، به هوش مصنوعی این امکان را می‌دهد که کارایی و قابلیت‌های خود را به طور تصاعدی افزایش دهد.

کلون به همراه محققان استارتاپ Sakana AI، سیستمی به نام “ماشین داروین گودل” (Darwin Gödel Machine) را ایجاد کردند: یک عامل LLM که می‌تواند به طور تکراری پرامپت‌ها، ابزارها و سایر جنبه‌های کد خود را برای بهبود عملکرد وظیفه خود تغییر دهد. ماشین داروین گودل نه تنها با اصلاح خود به نمرات وظیفه بالاتری دست یافت، بلکه با تکامل خود، توانست اصلاحات جدیدی را پیدا کند که نسخه اصلی آن قادر به کشف آنها نبود. این سیستم وارد یک حلقه واقعی خودبهبودی شده بود. این دستاورد نشان‌دهنده پتانسیل عظیم هوش مصنوعی برای فراگیری و بهبود مستقل، فراتر از حد انتظارات اولیه است و می‌تواند نقطه عطفی در مسیر توسعه هوش مصنوعی خودکار باشد.

5. پیشبرد تحقیقات

اگرچه مدل‌های زبانی بزرگ (LLMs) سرعت بخش‌های متعددی از خط لوله توسعه LLM را افزایش می‌دهند، اما انسان‌ها ممکن است برای مدتی طولانی همچنان برای تحقیقات هوش مصنوعی ضروری باقی بمانند. بسیاری از کارشناسان به “ذوق پژوهشی” یا توانایی بهترین دانشمندان در انتخاب سوالات و جهت‌گیری‌های پژوهشی جدید و امیدوارکننده، هم به عنوان یک چالش خاص برای هوش مصنوعی و هم به عنوان یک جزء کلیدی در توسعه هوش مصنوعی اشاره می‌کنند. این ذوق و شمّ، که اغلب نتیجه سال‌ها تجربه، شهود و ارتباطات بین‌رشته‌ای است، چیزی است که هنوز تقلید آن برای ماشین‌ها دشوار است.

اما کلون می‌گوید که ذوق پژوهشی شاید آنقدرها که برخی محققان فکر می‌کنند، چالشی برای هوش مصنوعی نباشد. او و محققان Sakana AI در حال کار بر روی یک سیستم سرتاسری برای تحقیقات هوش مصنوعی هستند که آن را “دانشمند هوش مصنوعی” (AI Scientist) می‌نامند. این سیستم، ادبیات علمی را جستجو می‌کند تا سوال پژوهشی خود را تعیین کند، آزمایش‌هایی را برای پاسخ به آن سوال اجرا می‌کند و سپس نتایج خود را می‌نویسد. این رویکرد، پتانسیل خودکارسازی بخش‌های بزرگی از فرآیند تحقیق را دارد که می‌تواند سرعت اکتشافات علمی را به شکل بی‌سابقه‌ای افزایش دهد.

یکی از مقالاتی که این سیستم اوایل سال جاری نوشت، که در آن یک استراتژی آموزشی جدید با هدف بهبود توانایی شبکه‌های عصبی در ترکیب مثال‌ها از داده‌های آموزشی خود را طراحی و آزمایش کرده بود، به صورت ناشناس و با رضایت برگزارکنندگان کارگاه، به یک کارگاه در کنفرانس بین‌المللی یادگیری ماشین (ICML) – یکی از معتبرترین کنفرانس‌های این حوزه – ارسال شد. استراتژی آموزشی در نهایت کارساز نبود، اما مقاله به اندازه‌ای امتیاز بالایی از سوی داوران کسب کرد که برای پذیرش واجد شرایط شد (شایان ذکر است که کارگاه‌های ICML استانداردهای پذیرش پایین‌تری نسبت به کنفرانس اصلی دارند). در مورد دیگری، کلون می‌گوید، دانشمند هوش مصنوعی ایده‌ای پژوهشی را مطرح کرد که بعداً به طور مستقل توسط یک محقق انسانی در پلتفرم X پیشنهاد شد و مورد توجه بسیاری از دانشمندان دیگر قرار گرفت.

کلون می‌گوید: «ما در حال حاضر در لحظه GPT-1 دانشمند هوش مصنوعی هستیم. در چند سال کوتاه، این سیستم مقالاتی را خواهد نوشت که در کنفرانس‌ها و مجلات برتر داوری‌شده در جهان پذیرفته خواهند شد. این سیستم، اکتشافات علمی جدیدی را انجام خواهد داد.» این دیدگاه، آینده‌ای را ترسیم می‌کند که در آن هوش مصنوعی نه تنها به انسان در تحقیقات کمک می‌کند، بلکه خود به نیروی محرکه اصلی در پیشرفت علم تبدیل می‌شود و مرزهای دانش را به شیوه‌هایی که امروز قابل تصور نیست، جابجا می‌کند.

اسنپدراگون ۸ پلاس در راه است؛ تراشه‌ای برای گوشی‌های قدرتمند و خوش‌قیمت؟

آیا فرا هوش مصنوعی در راه است؟

با این همه شور و اشتیاق برای خودبهبودی هوش مصنوعی، به نظر می‌رسد که در ماه‌ها و سال‌های آینده، سهم هوش مصنوعی در توسعه خود تنها افزایش خواهد یافت. اگر به گفته مارک زاکربرگ گوش دهیم، این می‌تواند به معنای نزدیک بودن مدل‌های فوق‌هوشمند باشد که در بسیاری از زمینه‌ها از قابلیت‌های انسانی فراتر می‌روند. با این حال، در واقعیت، تأثیر هوش مصنوعی خودبهبود‌دهنده هنوز بسیار نامشخص است. عدم قطعیت در این زمینه، ناشی از پیچیدگی ذاتی سیستم‌های هوش مصنوعی و ناشناخته بودن مسیر تکامل آن‌هاست.

قابل توجه است که AlphaEvolve آموزش سیستم اصلی LLM خود، Gemini را تسریع کرده است—اما این افزایش سرعت ۱ درصدی ممکن است به طور مشهودی سرعت پیشرفت‌های هوش مصنوعی گوگل را تغییر ندهد. بالوگ، محقق AlphaEvolve، می‌گوید: «این هنوز یک حلقه بازخورد بسیار کند است. آموزش Gemini زمان قابل توجهی می‌برد. بنابراین، شاید بتوانید شروع‌های هیجان‌انگیز این چرخه مثبت را ببینید، اما هنوز هم فرآیندی بسیار کند است.» این کندی، مانع از انفجار سریع هوش نمی‌شود، اما سرعت و مقیاس تغییرات را تحت تأثیر قرار می‌دهد.

اگر هر نسخه بعدی Gemini آموزش خود را ۱ درصد بیشتر تسریع کند، این شتاب‌ها ترکیب خواهند شد. و از آنجایی که هر نسل بعدی از نسل قبلی توانمندتر خواهد بود، باید بتواند شتاب‌های آموزشی حتی بیشتری را به دست آورد—البته، تمام روش‌های دیگری که ممکن است برای بهبود خود ابداع کند، بماند. در چنین شرایطی، طرفداران فرا هوش مصنوعی استدلال می‌کنند که یک انفجار هوش نهایی، اجتناب‌ناپذیر به نظر می‌رسد. این چشم‌انداز، آینده‌ای را ترسیم می‌کند که در آن هوش مصنوعی با سرعت فزاینده‌ای به سمت سطوح بالای توانایی حرکت می‌کند، و این امر می‌تواند پیامدهای عمیقی برای جامعه بشری داشته باشد.

با این حال، این نتیجه‌گیری، یک مشاهده کلیدی را نادیده می‌گیرد: نوآوری با گذشت زمان دشوارتر می‌شود. در روزهای اولیه هر زمینه علمی، اکتشافات سریع و آسان انجام می‌شوند. آزمایش‌های آشکار و ایده‌های زیادی برای بررسی وجود دارد که هیچ کدام قبلاً امتحان نشده‌اند. اما با بلوغ علم یادگیری عمیق، یافتن هر بهبود اضافی ممکن است به تلاش قابل توجهی بیشتری از سوی انسان‌ها و همکاران هوش مصنوعی آنها نیاز داشته باشد. ممکن است تا زمانی که سیستم‌های هوش مصنوعی به توانایی‌های پژوهشی در سطح انسانی دست یابند، انسان‌ها یا سیستم‌های هوش مصنوعی کمتر هوشمند، تمام میوه‌های در دسترس را چیده باشند. این پدیده، که به “کاهش بازده” معروف است، می‌تواند سرعت پیشرفت هوش مصنوعی را در بلندمدت محدود کند، حتی با وجود قابلیت‌های خودبهبودی.

بنابراین، تعیین تأثیر واقعی خودبهبودی هوش مصنوعی، چالشی بزرگ است. بدتر اینکه، سیستم‌های هوش مصنوعی که بیشترین اهمیت را برای توسعه هوش مصنوعی دارند – آنهایی که در شرکت‌های پیشرو هوش مصنوعی استفاده می‌شوند – احتمالاً پیشرفته‌تر از آنهایی هستند که برای عموم منتشر شده‌اند، بنابراین اندازه‌گیری قابلیت‌های O3 ممکن است راه خوبی برای استنباط آنچه در OpenAI اتفاق می‌افتد، نباشد. این عدم شفافیت، ارزیابی دقیق مسیر آینده هوش مصنوعی را دشوارتر می‌کند و به پیچیدگی پیش‌بینی‌های مربوط به آن می‌افزاید.

اما محققان خارجی تمام تلاش خود را می‌کنند – برای مثال، با ردیابی سرعت کلی توسعه هوش مصنوعی برای تعیین اینکه آیا این سرعت در حال افزایش است یا خیر. METR در حال نظارت بر پیشرفت‌ها در توانایی‌های هوش مصنوعی با اندازه‌گیری مدت زمانی است که انسان‌ها برای انجام وظایفی که سیستم‌های پیشرفته می‌توانند خودشان تکمیل کنند، صرف می‌کنند. آنها دریافته‌اند که از زمان انتشار GPT-2 در سال ۲۰۱۹، مدت زمان انجام وظایفی که سیستم‌های هوش مصنوعی می‌توانند به طور مستقل تکمیل کنند، هر هفت ماه دو برابر شده است.

از سال ۲۰۲۴، این زمان دو برابر شدن به چهار ماه کاهش یافته است، که نشان می‌دهد پیشرفت هوش مصنوعی واقعاً در حال تسریع است. دلایل غیرجذابی برای این امر ممکن است وجود داشته باشد: آزمایشگاه‌های هوش مصنوعی پیشرو، سرشار از پول سرمایه‌گذاران هستند که می‌توانند آن را صرف استخدام محققان جدید و خرید سخت‌افزار جدید کنند. اما کاملاً محتمل است که خودبهبودی هوش مصنوعی نیز نقشی ایفا کند. این هم‌افزایی بین سرمایه‌گذاری مالی و توانایی‌های خودبهبودی هوش مصنوعی، می‌تواند به شدت به سرعت پیشرفت این فناوری بیافزاید.

دیویدسون، محقق Forethought، می‌گوید که دلیل خوبی برای انتظار اینکه هوش مصنوعی حداقل برای مدتی پیشرفت خود را تقویت کند، وجود دارد. کار METR نشان می‌دهد که اثر “میوه‌های در دسترس” در حال حاضر محققان انسانی را کند نمی‌کند، یا حداقل افزایش سرمایه‌گذاری به طور موثر هر کندی را جبران می‌کند. اگر هوش مصنوعی به طور قابل توجهی بهره‌وری این محققان را افزایش دهد، یا حتی بخشی از کار تحقیقاتی را خود بر عهده بگیرد، این تعادل به نفع تسریع تحقیقات تغییر خواهد کرد. دیویدسون می‌گوید: «فکر می‌کنم قویاً انتظار دارید که دوره‌ای وجود داشته باشد که پیشرفت هوش مصنوعی سرعت بگیرد. سوال بزرگ این است که این دوره تا چه زمانی ادامه خواهد داشت.»

منبع مقاله اصلی: MIT Technology Review

دیگر هیچ مقاله‌ای را از دست ندهید

محتوای کاملاً انتخاب شده، مطالعات موردی، به‌روزرسانی‌های بیشتر.

Leave a Reply

Your email address will not be published. Required fields are marked *

مدیریت حرفه‌ای شبکه‌های اجتماعی با رسا وب آفرین

  • افزایش تعامل و دنبال‌کننده در اینستاگرام و تلگرام

  • تولید محتوا بر اساس الگوریتم‌های روز شبکه‌های اجتماعی

  • طراحی پست و استوری اختصاصی با برندینگ شما

  • تحلیل و گزارش‌گیری ماهانه از عملکرد پیج

  • اجرای کمپین تبلیغاتی با بازده بالا

محبوب ترین مقالات

آماده‌اید کسب‌وکارتان را دیجیتالی رشد دهید؟

از طراحی سایت حرفه‌ای گرفته تا کمپین‌های هدفمند گوگل ادز و ارسال نوتیفیکیشن هوشمند؛ ما اینجاییم تا در مسیر رشد دیجیتال، همراه شما باشیم. همین حالا با ما تماس بگیرید یا یک مشاوره رایگان رزرو کنید.