اشخاص کلیدی در هوش مصنوعی و فناوری دیجیتال نامهای سرگشاده منتشر کردهاند که در آن خواستار توقف شش ماهه در توسعه سیستمهای هوش مصنوعی قدرتمندتر از ChatGPT 4 OpenAI شدهاند.
طبق مقالهای در مجمع جهانی اقتصاد، امضاکنندگان این نامه که توسط مؤسسه Future of Life منتشر شده است، هشدار دادهاند که «هوش مصنوعی پیشرفته میتواند نمایانگر تغییری عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامهریزی و مدیریت شود. با مراقبت و منابع متناسب.
هشدار درباره خطرات سیستمهای هوش مصنوعی قدرتمندتر از ChatGPT-4
این نامه توسط بیش از 1400 نفر، از جمله استیو وزنیاک، بنیانگذار اپل، پروفسور یوشوا بنژیو برنده جایزه تورینگ و استوارت راسل، مدیر مرکز سیستم های هوشمند در دانشگاه برکلی، امضا شده است.
نقش ایلان ماسک در درخواست توقف توسعه هوش مصنوعی
این نامه همچنین توسط ایلان ماسک، که یکی از بنیانگذاران OpenAI، توسعه دهنده ChatGPT بود، امضا شد. بنیاد ماسک همچنین به سازمانی که نامه را منتشر کرده کمک مالی می کند. تعدادی از محققان در DeepMind Alphabet نام خود را به لیست امضاکنندگان اضافه کردند.
انتقاد از آزمایشگاههای هوش مصنوعی
این نامه آزمایشگاههای هوش مصنوعی را متهم میکند که برای توسعه سیستمهایی با هوشی بیشتر از انسانها عجله دارند، بدون اینکه به درستی خطرات و پیامدهای بالقوه برای بشریت را سنجیده باشند.
«ماههای اخیر شاهد بودهایم که آزمایشگاههای هوش مصنوعی در مسابقهای خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نمیتوانند درک، پیشبینی یا بهطور قابل اعتماد کنترل کنند، قفل شدهاند.» .
امضاکنندگان نامه از توسعه دهندگان هوش مصنوعی خواستند تا در کنار دولت ها و سیاست گذاران برای ایجاد مقامات نظارتی و سیستم های حاکمیتی قوی برای هوش مصنوعی کار کنند.
در پاسخی آشکار به نامه سرگشاده، سام آلتمن، مدیر عامل OpenAI، که ChatGPT-4 او در ماههای اخیر توسعه هوش مصنوعی را رهبری کرده است، توییتی منتشر کرد و گفت که چیزهایی که برای آینده AGI خوب به آن نیاز داریم عبارتند از: توانایی فنی برای همسو کردن یک ابراطلاعات، «هماهنگی کافی در میان بیشتر تلاشهای پیشرو AGI [هوش عمومی مصنوعی]» و «یک چارچوب نظارتی جهانی مؤثر از جمله حکومت دموکراتیک».
خطرات بالقوه سیستمهای هوش مصنوعی فوقهوشمند
این توییت اساساً یک پست وبلاگ آلتمن به تاریخ 24 فوریه 2023 را خلاصه می کند. در این وبلاگ، آلتمن می گوید ماموریت شرکت او این است که “اطمینان حاصل شود که هوش عمومی مصنوعی – سیستم های هوش مصنوعی که عموماً باهوش تر از انسان ها هستند – به نفع همه بشریت است.” .
آلتمن همچنین به خطرات بالقوه سیستمهای هوش مصنوعی فوقهوشمند اذعان کرد و به آن اشاره کرد: «استفاده نادرست، حوادث شدید و اختلالات اجتماعی». مدیر عامل OpenAI در ادامه به جزئیات رویکرد شرکت خود برای کاهش این خطرات پرداخت.
احتیاط در توسعه مدلهای جدید هوش مصنوعی
«با نزدیکتر شدن سیستمهای ما به AGI، با ایجاد و استقرار مدلهای خود محتاطتر میشویم. تصمیمات ما به احتیاط بسیار بیشتری از آنچه جامعه معمولاً در مورد فناوری های جدید اعمال می کند، و احتیاط بیشتری از آنچه بسیاری از کاربران می خواهند نیاز دارد. برخی از افراد در زمینه هوش مصنوعی فکر می کنند که خطرات AGI (و سیستم های جانشین) ساختگی هستند. ما خوشحال خواهیم شد اگر آنها درست باشند، اما ما به گونه ای عمل می کنیم که گویی این خطرات وجودی هستند.”