میزیتو
بلیط هواپیما فلای تودی
آخرین خبرها

چهار تهدید بزرگ هوش مصنوعی برای انسان‌ها

کارشناسان برجسته هوش مصنوعی زنگ خطر را در مورد سرعت و عظمت پیشرفت‌های اخیر در زمینه این فناوری به صدا درآورده‌ و چهار تهدید را برای جوامع انسانی برشمرده‌اند.

کرمان موتور

چرا هوش مصنوعی چنین ترسی را به وجود آورده است و ما در این زمینه چه کاری می توانیم انجام دهیم؟ چرا جفری هینتون «پدرخوانده هوش مصنوعی» نگران است؟ چهار خطری که این فناوری او را نگران کرده است،‌ کدام است؟

برخی از بزرگ‌ترین نگرانی‌های ابرازشده در مورد آینده هوش مصنوعی و بشریت چیست؟

کارشناسان برجسته هوش مصنوعی زنگ خطر را در مورد سرعت و بزرگی پیشرفت‌های اخیر در این زمینه به صدا درآورده‌ و هشدار دادند این پیشرفت‌ها چیزی کمتر از تهدید بشریت نیست.

جفری هینتون، دانشمند حوزه رایانه که به “پدرخوانده هوش مصنوعی” معرف است، اخیرا شغل خود را در گوگل ترک کرد تا نگرانی هایش را در مورد توسعه کنترل نشده ابزارهای جدید هوش مصنوعی با دیگران درمیان بگذارد.

هینتون ۷۵ ساله، در گفت و گو با مجله MIT Technology Review دانشگاه ام آی تی اظهار داشت: ناگهان دیدگاه خود را در مورد اینکه آیا این دستاوردها هوشمندتر از ما خواهند بود، تغییر دادم. فکر می کنم هوش مصنوعی در حال حاضر بسیار به ما نزدیک شده و در آینده بسیار باهوش تر از ما خواهد شد. سوال این است که چگونه ما انسان ها می توانیم از این فناوری جان سالم به در ببریم؟

هینتون تنها کسی نیست که در این زمینه ابراز نگرانی کرده است. در ماه فوریه «سم آلتمن»، مدیرعامل شرکت اوپن ای آی که «چت جی پی تی» را توسعه داده است نیز در این مورد اظهار داشت: جهان فاصله زیادی با دستیابی به ابزارهای هوش مصنوعی بالقوه ترسناک ندارد؛ بنابراین تعیین مقررات در این زمینه بسیار مهم است، اما فهمیدن این موضوع زمان می‌برد.

اندکی پس از اینکه استارتاپ تحت حمایت مایکروسافت آخرین مدل هوش مصنوعی خود به نام GPT-۴ را در ماه مارس منتشر کرد، بیش از هزار محقق و فناور در نامه ای با توجه به خطرهای عمیقی که این فناوری برای جامعه و بیشتریت دارد، خواستار توقف ۶ ماهه توسعه هوش مصنوعی شدند.

در اینجا به ارائه بزرگترین نگرانی هایی که هینتون و سایر کارشناسان بیان کرده اند، می پردازیم.

۱- هوش مصنوعی ممکن است در حال حاضر هوشمندتر از ما باشد
مغز انسان به لطف استعداد ذاتی خود در سازماندهی و ذخیره اطلاعات و یافتن راه حل هایی برای مشکلات دشوار می تواند معادلات را حل کند، به رانندگی بپردازد و سریال ها را دنبال کند.

تقریباً ۸۶ میلیارد نورون که در جمجمه انسان قرار گرفته اند و مهمتر از آن، ۱۰۰ تریلیون ارتباط ایجاد شده بین این نرون ها، این قابلیت ها را برای انسان فراهم کرده است.

هینتون می گوید: در مقابل، در فناوری زیربنای ChatGPT بین ۵۰۰ میلیارد تا یک تریلیون ارتباط وجود دارد. در حالی که به نظر می‌رسد این موضوع آن را نسبت به ما در یک نقطه ضعف بزرگ قرار می‌دهد، GPT-۴ که آخرین مدل هوش مصنوعی از OpenAI است، صدها برابر هر انسان دیگری می‌داند. این فناوری شاید، الگوریتم یادگیری بسیار بهتری نسبت به انسان دارد که آن را در فعالیت های شناختی کارآمدتر می‌کند.

پژوهشگران مدت‌هاست متوجه شده‌اند که جذب و بکارگیری دانش جدید برای شبکه‌های عصبی مصنوعی در مقایسه با انسان زمان بسیار بیشتری طول می کشد؛‌ چرا که آموزش آن‌ها به انرژی و داده های عظیمی نیاز دارد.

اما هینتون می گوید دیگر این‌گونه نیست و سامانه هایی مانند GPT-۴ پس از آموزش صحیح توسط محققان می‌توانند مطالب جدید را خیلی سریع بیاموزند. این موضوع بی شباهت به روشی نیست که یک فیزیکدان حرفه ای تعلیم دیده یافته های تجربی جدید را بسیار سریعتر از یک دانش آموز دبیرستان می فهمد.

این امر هینتون را به این نتیجه رساند که سامانه های هوش مصنوعی از ما باهوشترند. آنها نه تنها می‌توانند مطالب را سریع‌تر یاد بگیرند، بلکه می‌توانند نسخه‌هایی از دانش خود را تقریباً بلافاصله با یکدیگر به اشتراک بگذارند. این یک شکل کاملاً متفاوت هوش است، شکل جدید و بهتر هوش.

۲- هوش مصنوعی می‌تواند انتشار اطلاعات نادرست را سرعت ببخشد
سامانه های هوش مصنوعی هوشمندتر از انسان چه کاری انجام می دهند؟ یک احتمال نگران کننده این است که افراد، گروه ها یا دولت های یک ملیتی معاند ممکن است به سادگی از آنها برای پیشبرد اهداف خود بهره برداری کنند.

طبق گزارش جدید NewsGuard که اعتبار وب سایت ها را ارزیابی و اطلاعات نادرست آنلاین را ردیابی می کند، ده ها سایت خبری جعلی در حال حاضر به زبان های مختلف در سراسر شبکه اینترنت پخش شده اند و برخی از آنها روزانه صدها مقاله را که با کمک هوش مصنوعی تولید شده اند، منتشر می کنند.

هینتون به ویژه نگران است که ابزارهای هوش مصنوعی می توانند برای تاثیرگذاری بر انتخابات و حتی راه انداختن جنگ آموزش داده شوند.

برای مثال، اطلاعات نادرست انتخاباتی که از طریق چت بات‌های هوش مصنوعی منتشر می‌شود، می‌تواند نسخه آینده اطلاعات نادرست انتخاباتی باشد که از طریق فیس‌بوک و دیگر پیام رسان های اجتماعی منتشر می‌شود و اینها ممکن است تازه آغاز راه باشد.

۳- آیا هوش مصنوعی انسان‌ها را بیکار می‌کند؟
شرکت OpenAI تخمین می زند ۸۰ درصد از کارگران در آمریکا شاهد خواهند بود شغل آنها تحت تأثیر هوش مصنوعی قرار می گیرد. گزارش شرکت خدمات مالی و بانکداری گلدمن ساکس بیانگر آن است که این فناوری می تواند ۳۰۰ میلیون شغل تمام وقت را در سراسر جهان مورد تهدید قرار دهد.

به گفته هینتون، زمانی که “ابزارهای هوشمند می توانند از ما پیشی بگیرند” بقای بشریت در خطر است.

هینتون می‌گوید: این چیزها با خواندن همه رمان‌هایی که تا به حال نگاشته شده و هر آنچه «نیکولو ماکیاولی» مورخ و نمایشنامه‌نویس ایتالیایی تا به حال نوشته است، از ما می آموزد چگونه انسان ها را کنترل کند. حتی اگر آنها نتوانند مستقیماً اهرم‌ها را بکشند، مطمئناً می‌توانند ما را وادار به کشیدن اهرم کنند.

۴- کاملاً نمی‌دانیم چگونه آن را متوقف کنیم
هینتون افزود: ای کاش یک راه حل ساده خوب داشتم، اما مطمئن نیستم که آیا راه حلی وجود دارد.

با این حال، دولت ها توجه زیادی به ظهور هوش مصنوعی دارند. کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.

قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترل های جدید برای فناوری هایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.

آنچه مشخص نیست این است که چگونه کسی می تواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد.

هینتون پیشنهاد کرد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بین المللی علیه هوش مصنوعی تسلیحاتی باشد.

عضویت در تلگرام عصر ترکیه عضویت در اینستاگرام عصر ترکیه
منبع
ایرنا

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا