در آگوست 1955، گروهی از محققان درخواستی برای کمک مالی 13 دلاری برای برگزاری سمینار تابستانی در کالج دارتموث، نیوهمپشایر ارائه کردند. زمینه ای که آنها برای کاوش پیشنهاد کردند، هوش مصنوعی (AI) بود. اگرچه درخواست بودجه متوسط بود، اما فرضیه محققان این نبود: "در اصل، هر جنبه از یادگیری یا هر ویژگی دیگر هوش را می توان آنقدر دقیق توصیف کرد که بتوان ماشینی برای تقلید از آن ساخت."
از همان آغاز فروتنانه، فیلمها و رسانهها هوش مصنوعی را رمانتیک کردهاند یا آن را به عنوان یک شرور به تصویر میکشند. با این حال، برای بسیاری از مردم، هوش مصنوعی تنها موضوع بحث است و بخشی از تجربه زندگی آگاهانه نیست.
در پایان ماه گذشته، هوش مصنوعی در قالب GPT چت از آزمایشگاههای تحقیقاتی و گمانهزنی علمی تخیلی خارج شده و روی رایانههای رومیزی و تلفنهای عموم مردم وارد شده است. این به اصطلاح "هوش مصنوعی مولد" است - یک فرمان غیرمنتظره با کلمات هوشمندانه می تواند یک مقاله بنویسد یا یک دستور پخت و یک لیست خرید درست کند یا یک شعر به سبک الویس پریسلی بسازد.
اگر چه GPT چت چشمگیرترین شرکت کننده در یک سال موفقیت مولد هوش مصنوعی بوده است، سیستم هایی مانند این پتانسیل بیشتری برای ایجاد محتوای جدید نشان داده اند، و از دستورات متن به تصویر برای ایجاد تصاویر واضح استفاده می شود که حتی در مسابقات هنری برنده شده اند. هوش مصنوعی ممکن است هنوز هوشیاری زنده یا نظریه ذهنی که در فیلمها و رمانهای علمی تخیلی رایج شده است نداشته باشد، اما به حداقل برهم زدن کاری که ما فکر میکنیم سیستمهای هوش مصنوعی میتوانند انجام دهند، نزدیکتر میشود.
محققانی که از نزدیک با این سیستمها کار میکنند، مانند مدل LaMDA Large Language (LLM) گوگل، از چشمانداز هوشمندی چشمپوشی میکنند. LLM مدلی است که برای پردازش و تولید زبان طبیعی آموزش دیده است.
هوش مصنوعی مولد همچنین نگرانی هایی را در مورد سرقت ادبی، بهره برداری از محتوای اصلی مورد استفاده برای ساخت مدل ها، اخلاقیات دستکاری اطلاعات و سوء استفاده از اعتماد، و حتی "پایان برنامه نویسی" ایجاد کرده است.
هوش مصنوعی واقعاً به چه معناست؟
در مرکز همه اینها سؤالی وجود دارد که ارتباط آن از زمان سمینار تابستانی در دارتموث افزایش یافته است: آیا هوش مصنوعی با هوش انسانی متفاوت است؟ برای اینکه یک سیستم هوش مصنوعی در نظر گرفته شود، باید سطح مشخصی از یادگیری و سازگاری را نشان دهد. به همین دلیل، سیستم های تصمیم گیری، اتوماسیون و آماری هوش مصنوعی نیستند. به طور کلی، هوش مصنوعی به دو دسته تقسیم می شود: هوش مصنوعی (AI) و هوش مصنوعی عمومی (AI). در حال حاضر، SHI وجود ندارد. یک چالش کلیدی برای ساختن هوش مصنوعی عمومی این است که به اندازه کافی جهان را با کل دانش، به روشی سازگار و مفید مدل سازی کنید. این، به بیان ملایم، یک کار در مقیاس بزرگ است.
بیشتر آنچه که امروزه به عنوان هوش مصنوعی می شناسیم، دارای هوش محدودی است - جایی که یک سیستم خاص یک مشکل خاص را حل می کند. برخلاف هوش انسانی، چنین هوش مصنوعی محدودی تنها در حوزه ای که در آن آموزش دیده است مؤثر است: مانند تشخیص تقلب، تشخیص چهره یا توصیه های اجتماعی. و هوش مصنوعی همانند یک فرد عمل خواهد کرد. در حال حاضر، برجستهترین نمونه تلاش برای دستیابی به این هدف، استفاده از شبکههای عصبی و یادگیری عمیق آموزشدیده بر روی مقادیر انبوه داده است.
شبکه های عصبی از نحوه عملکرد مغز انسان الهام گرفته شده اند. برخلاف بسیاری از مدلهای یادگیری ماشین که محاسباتی را روی دادههای آموزشی انجام میدهند، شبکههای عصبی با تغذیه هر نقطه داده به نوبه خود از طریق یک شبکه به هم پیوسته کار میکنند و هر بار پارامترها را تنظیم میکنند. همانطور که داده های بیشتری از طریق شبکه تغذیه می شود، پارامترها تثبیت می شوند و در نتیجه یک شبکه عصبی "آموزش داده شده" ایجاد می شود که سپس می تواند خروجی مورد نظر را بر روی داده های جدید تولید کند - به عنوان مثال، تشخیص اینکه آیا یک تصویر حاوی گربه است یا سگ.
جهش قابل توجهی در توسعه هوش مصنوعی امروزه به دلیل پیشرفت های تکنولوژیکی در روش های یادگیری شبکه های عصبی بزرگ است که به لطف قابلیت های زیرساخت های بزرگ محاسبات ابری امکان تنظیم تعداد زیادی از پارامترها را در طول هر اجرا فراهم می کند. به عنوان مثال، GPT-3 (سیستم هوش مصنوعی که ChatGPT را تامین می کند) یک شبکه عصبی بزرگ با 175 میلیارد پارامتر است.
برای کارکرد هوش مصنوعی چه چیزی لازم است؟
هوش مصنوعی برای موفقیت به سه چیز نیاز دارد. اول، او به دادههای باکیفیت، عینی و بسیاری از آنها نیاز دارد. محققانی که شبکه های عصبی می سازند از آرایه های بزرگی از داده ها استفاده می کنند که به لطف دیجیتالی شدن جامعه ظاهر شده اند.
به عنوان مکمل برنامه نویسان انسانی، Co-Pilot داده های خود را از میلیاردها خط کد میزبانی شده در GitHub می گیرد. ChatGPT و سایر مدل های زبان بزرگ از میلیاردها وب سایت و اسناد متنی ذخیره شده در اینترنت استفاده می کنند.
ابزارهای تبدیل متن به تصویر مانند انتشار پایدار, DALLE-2 و Midjourney، از جفت های تصویر-متن از مجموعه داده هایی مانند LAION-5B استفاده کنید. مدلهای هوش مصنوعی همچنان به تکامل خود ادامه میدهند، زیرا ما بیشتر زندگی خود را دیجیتالی میکنیم و منابع داده جایگزین را به آنها میدهیم، مانند دادههای شبیهسازی یا دادههای تنظیمات بازی مانند Minecraft.
هوش مصنوعی همچنین برای آموزش موثر به زیرساخت محاسباتی نیاز دارد. همانطور که کامپیوترها قدرتمندتر می شوند، مدل هایی که اکنون به تلاش فشرده و محاسبات در مقیاس بزرگ نیاز دارند، ممکن است در آینده نزدیک به صورت محلی پردازش شوند. برای مثال، مدل Stable Diffusion را میتوان در رایانههای محلی اجرا کرد و نه در محیطهای ابری. سومین نیاز برای هوش مصنوعی مدل ها و الگوریتم های بهبود یافته است. سیستم های مبتنی بر داده همچنان به پیشرفت های سریع در زمینه هایی که زمانی حوزه شناخت انسان تلقی می شد، ادامه می دهند.
با این حال، از آنجایی که دنیای اطراف ما دائماً در حال تغییر است، سیستمهای هوش مصنوعی باید دائماً با استفاده از دادههای جدید بازآموزی شوند. بدون این مرحله مهم، سیستمهای هوش مصنوعی پاسخهایی میدهند که از نظر واقعی نادرست هستند یا اطلاعات جدیدی را که از زمان آموزش به دست آمده را در نظر نمیگیرند.
شبکه های عصبی تنها رویکرد هوش مصنوعی نیستند. یکی دیگر از اردوگاه های قابل توجه در تحقیقات هوش مصنوعی، هوش مصنوعی نمادین است - به جای هضم آرایه های گسترده ای از داده ها، بر قوانین و دانشی شبیه به فرآیند انسانی شکل گیری بازنمایی نمادین درونی از پدیده های خاص تکیه می کند.
اما در طول دهه گذشته، موازنه قدرت به شدت به سمت رویکردهای داده محور متمایل شده است و «بنیانگذاران» یادگیری عمیق مدرن اخیراً جایزه تورینگ، معادل جایزه نوبل در علوم کامپیوتر را دریافت کردند.
داده ها، محاسبات و الگوریتم ها اساس هوش مصنوعی آینده را تشکیل می دهند. همه شاخص ها حاکی از پیشرفت سریع در هر سه دسته برای آینده قابل پیش بینی است.
شما می توانید به اوکراین در مبارزه با مهاجمان روسی کمک کنید. بهترین راه برای انجام این کار، کمک مالی به نیروهای مسلح اوکراین است Savelife یا از طریق صفحه رسمی NBU.