دوشنبه ۲۷ فروردين ۱۴۰۳ , 15 Apr 2024
جالب است ۰
در باب هوش مصنوعی:

هک سیستم عامل تمدن بشری

هوش مصنوعی قابلیت‌های چشمگیری به‌دست آورده که با کلمات، صداها یا تصاویر زبان را دستکاری، یا زبان‌ جدید خلق می‌کنند. بنابراین، هوش مصنوعی سیستم عامل تمدن ما را هک کرده است.
هوش مصنوعی قابلیت‌های چشمگیری به‌دست آورده که با کلمات، صداها یا تصاویر زبان را دستکاری، یا زبان‌ جدید خلق می‌کنند. بنابراین، هوش مصنوعی سیستم عامل تمدن ما را هک کرده است.
 
به گزارش افتانا، ترس از هوش مصنوعی از زمان آغاز عصر کامپیوتر بشریت را مشغول داشته است. تاکنون این ترس‌ها بر ماشین‌هایی متمرکز بودند که با استفاده از ابزارهای فیزیکی انسان‌ها را به قتل می‌رسانند، به بردگی می‌کشند یا جای آنها را می‌گیرند. اما در دو سال گذشته ابزارهای جدید هوش مصنوعی به عرصه آمده‌اند که بقای تمدن بشری را از مسیری غیرمنتظره تهدید می‌کنند. هوش مصنوعی قابلیت‌های چشمگیری به‌دست آورده که با کلمات، صداها یا تصاویر زبان را دستکاری، یا زبان‌ جدید خلق می‌کنند. بنابراین، هوش مصنوعی سیستم عامل تمدن ما را هک کرده است. زبان چیزی است که تقریباً تمام فرهنگ بشری را می‌سازد. به عنوان مثال، حقوق بشر در دی‌ان‌ای ما حک نشده است، بلکه مصنوعاتی فرهنگی هستند که ما با گفتن داستان و نوشتن قانون آنها را می‌سازیم. خدایان واقعیت‌های فیزیکی نیستند، بلکه مصنوعاتی فرهنگی هستند که ما با خلق افسانه و نوشتن متون مذهبی ساخته‌ایم.
 
پول نیز یک مصنوع فرهنگی است. اسکناس‌ها فقط قطعات رنگارنگ کاغذ هستند و هم‌اکنون بیش از ۹۰ درصد از پول‌ها به شکل اسکناس نیست، بلکه اطلاعات دیجیتالی در کامپیوتر است. آنچه به پول ارزش می‌دهد داستان‌هایی است که بانکداران، وزرای دارایی‌ و متخصصان رمزارزها درباره آن به ما می‌گویند. سام بانکمن-فراید (Sam Bankman-Fried)، الیزابت هولمز و برنی مادوف تنها در خلق ارزش واقعی مهارت نداشتند، بلکه همگی داستان‌سرایی قهار بودند.
 
اما اگر یک هوش غیرانسانی بتواند بهتر از یک انسان معمولی داستان بسراید، آهنگ بسازد، نقاشی بکشد و قوانین یا متون مذهبی بنویسد چه خواهد شد؟ وقتی افراد درباره ChatGPT و دیگر ابزارهای هوش مصنوعی فکر می‌کنند اغلب ذهن آنها به سمت مواردی مانند دانش‌آموزانی کشیده می‌شود که با استفاده از هوش مصنوعی تکالیفشان را می‌نویسند. وقتی دانش‌آموزان چنین کاری انجام دهند تکلیف نظام آموزشی چه خواهد شد؟ اما این نوع سوالات ما را از تصویر بزرگ‌تر دور می‌کند. تکالیف مدارس را فراموش کنید. به انتخابات بعدی ریاست‌جمهوری آمریکا در سال ۲۰۲۴ بیندیشید و تلاش کنید تاثیر ابزارهای هوش مصنوعی را متصور شوید که در مقیاس وسیع محتوای سیاسی، اخبار جعلی و متون مذهبی فرقه‌های جدید را تولید می‌کند.
 
در سال‌های اخیر فرقه کیو انان (Q Anon) پیام‌های آنلاین بی‌نام و نشانی با عنوان «قطرات کیو» (Q drops) پخش کرده است. دنبال‌کنندگان این قطرات کیو را همانند متون مقدس گردآوری و تفسیر می‌کردند و آنها را محترم می‌شمردند. ما می‌دانیم که تمام قطرات کیو را در گذشته انسان‌ها می‌نوشتند و روبات‌ها صرفاً آنها را پخش می‌کردند. در آینده می‌توانیم شاهد اولین فرقه‌هایی در تاریخ باشیم که متون مقدس‌شان به وسیله یک هوش غیرانسانی نوشته می‌شود. 
 
در مقیاس وسیع‌تر، ممکن است ما درگیر مباحثات طولانی آنلاین درباره سقط جنین، تغییرات اقلیمی یا حمله روسیه به اوکراین با شخصیت‌هایی باشیم که فکر می‌کنیم انسان باشند، اما در حقیقت هوش مصنوعی هستند. نکته مهم آن است که ما به هیچ عنوان نمی‌توانیم دیدگاه یک روبات هوش مصنوعی را تغییر دهیم در حالی که هوش مصنوعی می‌تواند پیام‌هایش را با چنان دقتی بیان کند که شانس خوبی برای تاثیرگذاری بر ما داشته باشد.
 
هوش مصنوعی با تبحری که در زبان دارد می‌تواند روابط صمیمانه‌ای با افراد برقرار کند و با استفاده از قدرت این صمیمیت، دیدگاه‌ها و جهان‌بینی آنها را تغییر دهد. هنوز نشانه‌ای دال بر این وجود ندارد که هوش مصنوعی آگاهی یا احساسی از خودش داشته باشد تا بتواند آن صمیمیت قلابی با انسان‌ها را تسریع کند اما حتی اگر بتواند انسان‌ها را از نظر احساسی وابسته کند پیشرفت بزرگی خواهد بود. در ژوئن سال ۲۰۲۲، بلیک لموان (Lemoine) مهندس گوگل صراحتاً اعلام کرد که روبات گفت‌وگوی هوش مصنوعی لامدا (LaMDA) -که خودش بر روی آن کار می‌کرد- به نوعی دارای احساسات شده است. این ادعای مناقشه‌برانگیز به بهای از دست‌دادن شغلش تمام شد. نکته جالب این داستان ادعای آقای لموان که احتمالاً غلط بود نیست، بلکه آن است که او حاضر شد به خاطر یک روبات گفت‌وگوی هوش مصنوعی شغل خود را به خطر اندازد. اگر هوش مصنوعی بتواند به گونه‌ای بر افراد تاثیر گذارد که شغل خود را به خطر بیندازند آنها را به چه کارهای دیگری وادار خواهد کرد؟
 
در جدال سیاسی برای تسخیر ذهن‌ها و قلب‌ها، صمیمیت کارآمدترین سلاح خواهد بود. هوش مصنوعی این توانایی را به‌دست آورده تا رابطه صمیمی گسترده‌ای با میلیون‌ها نفر برقرار کند. همه ما می‌دانیم که در دهه گذشته رسانه‌های اجتماعی به میدان جنگی برای کنترل توجه انسان‌ها تبدیل شد. با نسل جدید هوش مصنوعی، جبهه جنگ از توجه به سمت صمیمیت کشیده می‌شود. چه اتفاقی برای جامعه بشری و روانشناسی انسانی می‌افتد وقتی یک هوش مصنوعی برای برقراری رابطه صمیمی با انسان‌ها با یک هوش مصنوعی دیگر وارد نبرد شود؟ رابطه‌ای که بعدها می‌تواند انسان را قانع کند تا به سیاستمداران خاصی رای بدهند یا محصولات خاصی را بخرند.
 
حتی بدون ایجاد صمیمیت قلابی، ابزارهای جدید هوش مصنوعی تاثیر پررنگی بر دیدگاه‌ها و جهان‌بینی ما دارند. افراد ممکن است از یک مشاور هوش مصنوعی به عنوان یک پیشگوی همه‌چیزدان استفاده کنند. تعجبی ندارد که گوگل به هراس افتاده است. اگر من بتوانم از پیشگو سوال کنم نیازی به جست‌وجو در گوگل ندارم. بنگاه‌های خبری و تبلیغاتی نیز باید نگران باشند. وقتی من بتوانم از پیشگو بخواهم آخرین اخبار را بگوید دیگر سراغ روزنامه‌خوانی نمی‌روم. وقتی بتوانم از پیشگو بپرسم که چه چیزی را بخرم دیگر تبلیغات و آگهی‌ها سودمندی نخواهند داشت.
 
اما حتی این سناریوها هم تصویر بزرگ را نشان نمی‌دهند. آنچه ما درباره آن صحبت می‌کنیم احتمال بالقوه پایان یافتن تاریخ بشری است. نه پایان کل تاریخ، بلکه فقط پایان ‌بخشی که تحت سلطه انسان است. تاریخ را باید تعامل میان زیست‌شناسی و فرهنگ دانست؛ بین نیازهای زیستی بشر و تمایل به اموری مانند غذا و روابط جنسی با مخلوقات فرهنگی از قبیل ادیان و قوانین. تاریخ فرآیندی است که در طی آن قوانین و ادیان، غذا و روابط جنسی را شکل می‌دهند.
 
وقتی هوش مصنوعی فرهنگ را تسخیر و تولید داستان، آهنگ، قوانین و مذاهب را آغاز کند چه اتفاقی در مسیر تاریخ روی خواهد داد؟ ابزارهای گذشته از قبیل رسانه‌های چاپی و رادیو به گسترش دیدگاه‌های فرهنگی بشر کمک کردند اما هرگز خود پدیدآورنده دیدگاه‌های فرهنگی جدید نبودند. هوش مصنوعی تفاوتی بنیادین دارد چون می‌تواند دیدگاه‌هایی کاملاً جدید و فرهنگی کاملاً نو بیافریند.
 
احتمالاً هوش مصنوعی در ابتدا از نمونه‌های انسانی که بر مبنای آن تعلیم دیده است تقلید خواهد کرد اما با گذشت هر سال، فرهنگ هوش مصنوعی با جسارت تمام به جایی می‌رود که هیچ انسانی قبلاً به آنجا نرفته است. هزاران سال است که انسان‌ها در میان رویاهای دیگر انسان‌ها زیسته‌اند. ممکن است در سال‌های آینده ما در میان رویاهای یک هوش مصنوعی بیگانه زندگی کنیم.
 
ترس از هوش مصنوعی فقط چند دهه است که انسان را دربر گرفته است اما انسان‌ها از هزاران سال قبل ترسی عمیق‌تر داشته‌اند. ما همیشه به قدرت داستان‌ها و تصاویر برای دستکاری اذهان و خلق توهمات اذعان داشته‌ایم. در نتیجه، از زمان باستان انسان‌ها از این می‌ترسیدند که در جهان توهمات گرفتار شوند.
 
رنه دکارت در قرن ۱۷ از آن هراس داشت که یک شیطان شرور او را درون جهانی از توهمات به دام اندازد و هر چیزی را که او می‌بیند یا می‌شنود خلق کند. افلاطون در یونان باستان داستان مشهور «غار» را بیان می‌کند که در آن گروهی از افراد داخل یک غار به زنجیر کشیده شده‌اند و تمام عمرشان به یک دیوار سیاه‌رنگ نگاه می‌کنند. آنها در این صفحه انعکاس سایه‌های مختلف را می‌بینند. این زندانیان توهماتی را که می‌بینند به اشتباه واقعیت می‌پندارند. در هند باستان، حکمای بودایی و هندو می‌گفتند که تمامی انسان‌ها درون مایا (Maya) -جهان توهمات- گرفتار شده‌اند. آنچه ما به عنوان واقعیت می‌پذیریم در واقع تخیلی در درون ذهن ماست. مردم ممکن است به خاطر اعتقاد به این یا آن توهم جنگ‌هایی به راه اندازند، ‌دیگران را بکشند و خود آماده کشته شدن باشند. انقلاب هوش مصنوعی ما را با شیطان دکارت، غار افلاطون و مایا روبه‌رو می‌کند. اگر مراقب نباشیم ممکن است در پشت پرده‌ای از توهمات گرفتار شویم. پرده‌ای که قادر به دریدن آن نخواهیم بود یا حتی متوجه بودن آن نمی‌شویم.
 
البته از قدرت جدید هوش مصنوعی می‌توان برای مقاصد خوب نیز استفاده کرد. من نمی‌خواهم وارد این بحث شوم چون پدیدآورندگان هوش مصنوعی به اندازه کافی در این باره صحبت می‌کنند. وظیفه تاریخدانان و فیلسوفانی مانند من آن است که خطرات را گوشزد کنند. اما قطعاً هوش مصنوعی می‌تواند از راه‌های بی‌شماری -از یافتن درمان‌های جدید برای سرطان گرفته تا کشف راه‌حل‌هایی برای بحران‌های اکولوژیک- به ما کمک کند. پرسش پیش‌روی ما آن است که چگونه می‌توانیم مطمئن شویم که از ابزارهای جدید هوش مصنوعی برای اهداف خوب و نه مقاصد شوم بهره‌‌برداری می‌شود. به این منظور ما باید در ابتدا قابلیت‌های واقعی این ابزارها را بشناسیم.
 
از سال ۱۹۴۵ ما متوجه شدیم که فناوری هسته‌ای می‌تواند انرژی ارزان را برای بشریت فراهم‌ کند اما همچنین قادر است تمدن بشری را به‌طور فیزیکی از میان ببرد. بنابراین ما کل نظم بین‌المللی را از نو شکل دادیم تا از بشریت محافظت کنیم و اطمینان یابیم که از فناوری هسته‌ای صرفاً برای اهداف خوب بهره‌برداری می‌شود. اکنون سلاحی جدید با قابلیت تخریب انبوه پیش‌روی ماست. سلاحی که قادر است جهان فکری و اجتماعی ما را از بین ببرد.
 
ما هنوز می‌توانیم بر ابزارهای جدید هوش مصنوعی نظارت کنیم اما باید به سرعت دست به کار شویم. سلاح‌های هسته‌ای نمی‌‌توانند سلاح‌های قدرتمندتری اختراع کنند اما هوش مصنوعی می‌تواند یک هوش مصنوعی بسیار قدرتمندتر بسازد. گام اولیه باید انجام بازرسی‌های ایمنی قبل از عرضه ابزارهای توانمند هوش مصنوعی به حوزه عمومی باشد. درست همان‌گونه که یک شرکت داروسازی نمی‌تواند بدون ارزیابی اثرات جانبی کوتاه‌مدت و درازمدت یک داروی جدید آن را عرضه کند شرکت‌های فناوری نیز نباید ابزارهای جدید هوش مصنوعی را بدون ایمن‌سازی عرضه کنند. ما برای فناوری‌های جدید به چیزی شبیه سازمان غذا و دارو (FDA) نیاز داریم و این نیاز بسیاری ضروری است.
 
آیا کندی سرعت عرضه عمومی هوش مصنوعی باعث نمی‌شود دموکراسی‌ها از نظام‌های خودکامه‌ بی‌رحم عقب بمانند؟ درست برعکس. عرضه بدون نظارت هوش مصنوعی باعث بروز هرج‌ومرج اجتماعی می‌شود که به نفع خودکامه‌هاست و دموکراسی‌ها را ویران می‌کند. دموکراسی به معنای گفت‌وگو است و گفت‌وگوها به زبان متکی هستند. وقتی هوش مصنوعی زبان را هک کند توانایی ما برای برقراری گفت‌وگوی معنادار را از بین می‌برد و به دنبال آن دموکراسی نابود می‌شود.
 
مدت زیادی نیست که ما با یک هوش بیگانه درست اینجا بر روی زمین مواجه شده‌ایم. ما چیز زیادی درباره آن نمی‌دانیم به‌جز اینکه لازم است عرضه غیرمسوولانه ابزارهای هوش مصنوعی در حوزه عمومی را متوقف کنیم و هوش مصنوعی را کنترل کنیم قبل از اینکه ما را کنترل کند. اولین قانونی که من پیشنهاد می‌کنم آن است که هوش مصنوعی را ملزم کنیم که هوش مصنوعی بودن خود را افشا کند. اگر من با کسی در حال گفت‌وگو باشم و نتوانم بگویم آیا او یک انسان است یا هوش مصنوعی این به معنای پایان دموکراسی خواهد بود.
 
این متن را یک انسان نوشته است، شاید هم نه!!!
کد مطلب : 20837
https://aftana.ir/vdcjaoe8.uqeytzsffu.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی