رهبران اپنایآی خواستار تنظیم مقررات برای جلوگیری از نابودی بشریت توسط هوش مصنوعی و ایجاد نهادی مانند آژانس انرژی اتمی شدند.
به گزارش گروه علم و پیشرفت به نقل از رویترز، تیم پشتیبان چتجیپیتی میگوید که برای محافظت در برابر خطرات هوش مصنوعی فوقهوشمند به یک ناظر معادل آژانس انرژی اتمی نیاز است.
رهبران شرکت اپنایآی، توسعهدهنده چتجیپیتی، خواستار تنظیمگری هوش مصنوعی فوقهوشمند شدهاند و استدلال میکنند که معادل آژانس بینالمللی انرژی اتمی برای محافظت بشریت از خطر ایجاد تصادفی چیزی با قدرت نابود کردن انسان مورد نیاز است.
گرگ براکمن، رئیس اداری و ایلیا سوتسکِور، دانشمند ارشد و سم آلتمن مدیر اجرایی، از یک تنظیم کننده بین المللی خواستند تا در مورد چگونگی بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و محدودیت هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجودی چنین سیستم هایی ایجاد کند.
آنها نوشتند: «می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام خواهند داد. از نظر جنبههای مثبت و منفی، ابرهوشمند قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما می توانیم آینده ای مرفه تر داشته باشیم؛ اما برای رسیدن به آن باید خطرات را مدیریت کنیم و با توجه به احتمال خطر وجودی، نمی توانیم تنها واکنش نشان دهیم.»
این سه نفر در کوتاهمدت، خواستار درجاتی از هماهنگی میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد.به عنوان مثال این هماهنگی می تواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
محققان دهها سال است که درباره خطرات بالقوه ابرهوشمند شدن هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی کار می کند، هشت دسته خطر فاجعه بار و وجودی ناشی از توسعه هوش مصنوعی را توصیف کرده است.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، مرکز ایمنی هوش مصنوعی آسیب های مخرب دیگری را توصیف می کند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند منجر به از دست دادن توانایی خودگردانی و وابستگی کامل بشر به ماشینها میشود و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند.
رهبران اپنایآی می گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت ها و پیش فرض های سیستم های هوش مصنوعی تصمیم بگیرند؛ اما اذعان دارند که ما هنوز نمی دانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها می گویند توسعه مداوم سیستم های قدرتمند ارزش ریسک را دارد.
مدلهای هوش مصنوعی مولد به دلیل اشتباهات یا سوگیری ها، اطلاعات نادرست را با اطمینان عجیبی منتشر میکنند. چنین اشتباهاتی می تواند عواقب جدی داشته باشد. اتحادیه اروپا در حال نوشتن پیشنویس قوانین جدید هوش مصنوعی پیشرو است؛ اما چند سال طول می کشد تا این قانون اجرا شود بنابراین رگولاتورها قصد دارند قوانین موجود را در این مورد اعمال کنند. این قوانین همه چیز از حق نسخه برداری و حریم خصوصی داده ها گرفته تا دو موضوع کلیدی داده های وارد شده به مدل ها و محتوای تولید شده را شامل می شوند.