kayhan.ir

کد خبر: ۲۶۶۷۹۴
تاریخ انتشار : ۲۲ خرداد ۱۴۰۲ - ۲۱:۰۷
#هوش_مصنوعی

هـوش مصنوعـی تهدیدی برای جوامـع و دموکراسـی!

 
 
 
 
کانورسیشن در گزارشی به اینکه آیا سازمان‌ها می‌توانند از مدل‌های زبان هوش مصنوعی مانند چت‌جی‌پی‌تی برای ترغیب رای‌دهندگان به رفتار‌های خاص استفاده کنند یا خیر، پرداخته است.
به گزارش خبرگزاری صداوسیما‌، سناتور جاش‌هاولی در جلسه استماع سنای آمریکا از سام آلتمن، مدیرعامل اوپن‌ای آی پرسید: آیا سازمان‌ها می‌توانند از مدل‌های زبان هوش مصنوعی مانند چت‌جی‌پی‌تی برای ترغیب رای‌دهندگان به رفتار‌های خاص استفاده کنند، آلتمن پاسخ داد که او واقعا نگران است که برخی از افراد ممکن است از مدل‌های زبانی برای دستکاری، متقاعد کردن و درگیر شدن در تعاملات فردی با رای‌دهندگان استفاده کنند.
 آلتمن توضیح بیشتری نداد، اما ممکن است چیزی شبیه به این سناریو را در ذهن داشته باشد. تصور کنید که به‌زودی، فناوران سیاسی ماشینی به نام کلاگر (Clogger) را توسعه دهند. یک پویش سیاسی در جعبه سیاه. کلاگر بی‌وقفه فقط یک هدف را دنبال می‌کند: به حداکثر رساندن ‌شانس برتری يك نامزد در پویشی که خدمات کلاگر را خریداری می‌کند.
 در حالی که شبکه‌های اجتماعی مانند فیس‌بوک، توئیتر و یوتیوب از ‌اشکال هوش مصنوعی برای ترغیب کاربران به سپری کردن زمان بیشتری در سایت خود استفاده می‌کنند، هوش مصنوعی کلاگر هدف دیگری دارد: تغییر رفتار رای دادن مردم.
کلاگر چگونه کار می‌کند؟
 دانشمندان علوم سیاسی معتقدند که چیزی مانند کلاگر می‌تواند از اتوماسیون برای افزایش چشمگیر مقیاس و به‌طور بالقوه اثربخشی تکنیک‌های دستکاری رفتار و هدف‌گیری خرد که پویش‌های سیاسی از اوایل دهه دو هزار استفاده کرده‌اند، استفاده کند.. همان‌طور که تبلیغ کنندگان از مرور و سابقه شبکه‌های اجتماعی شما برای هدف قرار دادن تبلیغات تجاری و سیاسی استفاده می‌کنند، کلاگر نیز به صد‌ها میلیون رای‌دهنده به صورت جداگانه توجه می‌کند.
 کلاگر این سه پیشرفت را نسبت به دستکاری رفتار الگوریتمی فعلی ارائه می‌دهد. اولا، مدل زبان آن پیام‌هایی را ایجاد می‌کند، متن‌ها، شبکه‌های اجتماعی و ایمیل، شاید شامل تصاویر و ویدئو‌ها متناسب با شخص کاربر. در حالی که تبلیغ‌کنندگان به صورت راهبردی تعداد نسبتا کمی تبلیغات را قرار می‌دهند، مدل‌های زبانی مانند چت‌جی‌پی‌تی می‌توانند پیام‌های منحصربه‌فرد بی‌شماری را برای شخص هر کاربر در طول پویش ایجاد کنند.
 دوم، کلاگر از تکنیکی به نام یادگیری تقویتی برای ایجاد پی‌در‌پی پیام‌هایی استفاده می‌کند که احتمال تغییر رای فرد را افزایش می‌دهد. یادگیری تقویتی یک رویکرد یادگیری ماشینی، آزمون و خطاست که در آن رایانه اقداماتی را انجام می‌دهد و درباره اینکه کدام کار بهتر است بازخورد دریافت می‌کند تا یاد بگیرد چگونه به یک هدف دست یابد. ماشین‌هایی که می‌توانند Go، شطرنج و بسیاری از بازی‌های ویدئویی را بهتر از هر انسان دیگری انجام دهند، از یادگیری تقویتی استفاده کرده‌اند.
 سوم، در طول یک پویش، پیام‌های کلاگر می‌توانند به منظور در نظر گرفتن پاسخ‌های کاربر به ارسال‌های قبلی دستگاه و آنچه که در مورد تغییر نظر دیگران آموخته است، تکامل یابند. کلاگر می‌تواند در طول زمان مکالمات پویا را با کاربران ادامه دهد. پیام‌های کلاگر شبیه تبلیغاتی است که ما را در وب‌سایت‌ها و رسانه‌های اجتماعی مختلف دنبال می‌کنند.
ماهیت هوش مصنوعی
 پیام‌هایی که کلاگر ارسال می‌کند ممکن است محتوای سیاسی داشته باشند یا نباشند. تنها هدف این سیستم به حداکثر رساندن سهم رای است و احتمالا راهبرد‌هایی را برای دستیابی به این هدف طراحی می‌کند که هیچ مبارز انسانی به آن فکر نمی‌کرد.
 امکان ارسال اطلاعات به رای دهندگان مخالف احتمالی در مورد علایق غیرسیاسی که در ورزش یا سرگرمی دارند برای دفن پیام‌های سیاسی که دریافت می‌کنند، است. امکان دیگر ارسال پیام‌های بی‌اختیاری است که همزمان با پیام‌های مخالفان باشد و دیگری دستکاری گروه‌های دوستان شبکه‌های اجتماعی رای‌دهندگان است تا این حس را ایجاد کنند که حلقه‌های اجتماعی آنها از نامزد مربوطه حمایت می‌کنند.
 کلاگر هیچ توجهی به حقیقت ندارد. در واقع، هیچ راهی برای شناخت درست یا نادرست بودن محتوای تولیدی آن وجود ندارد. هدف این سیستم تغییر رای کاربران است نه ارائه اطلاعات دقیق.
از آن‌جا که این سیستم یک نوع جعبه سیاه از هوش مصنوعی است، مردم راهی برای دانستن اینکه از چه راهبرد‌هایی استفاده می‌کند، ندارند. اگر کمپین ریاست جمهوری خواهان، کلاگر را در سال ۲۰۲۴ معرفی کند، کمپین دموکرات‌ها احتمالا مجبور می‌شود به همان شکل، شاید با دستگاهی مشابه، پاسخ دهند. اگر مدیران پویش‌های انتخاباتی فکر می‌کردند که این ماشین‌ها مؤثر هستند، رقابت ریاست‌جمهوری ممکن است به Clogger vs Dogger ختم شود و برنده مشتری ماشین موثرتر باشد. دانشمندان علوم سیاسی و صاحب‌نظران می‌توانند در مورد دلیل غالب شدن این سیستم‌های هوش مصنوعی حرف‌های زیادی برای گفتن داشته باشند، اما احتمالا هیچ‌کس واقعا چیزی درباره آنها نمی‌داند. محتوایی که در روز انتخابات برنده شد، می‌توانست از یک هوش مصنوعی باشد که صرفا بر پیروزی متمرکز شده بود، بدون ایده‌های سیاسی خودش، به جای نامزد‌ها یا احزاب. در این مفهوم بسیار مهم، یک ماشین برنده انتخابات می‌شد تا یک شخص. انتخابات دیگر دموکراتیک نخواهد بود، حتی اگر همه فعالیت‌های عادی دموکراسی یعنی سخنرانی‌ها، تبلیغات، پیام‌ها، رای‌گیری و شمارش آرا انجام شده باشد. رئیس‌جمهور منتخب هوش مصنوعی می‌تواند یکی از دو راه را طی کند. او می‌تواند از ردای انتخابات برای پیگیری سیاست‌های حزب جمهوری‌خواه یا دموکرات استفاده کند. اما از آن‌جایی که ممکن است ایده‌های حزب ارتباط چندانی با این موضوع نداشته باشد که چرا مردم به روشی که رای دادند، اهمیتی نمی‌دهند اقدامات رئیس‌جمهور لزوما منعکس‌کننده اراده رای‌دهندگان نیست. رای‌دهندگان به جای انتخاب آزادانه رهبران سیاسی و سیاست‌های خود، توسط هوش مصنوعی دستکاری می‌شدند.
مسیر دیگر این است که رئیس‌جمهور پیام‌ها، رفتار‌ها و سیاست‌هایی را دنبال کند که ماشین پیش‌بینی می‌کند‌ شانس انتخاب مجدد را به حداکثر می‌رساند. در این مسیر، رئیس‌جمهور هیچ سکو یا برنامه خاصی فراتر از حفظ قدرت نخواهد داشت. اقدامات رئیس‌جمهور که توسط کلاگر هدایت می‌شود، به احتمال زیاد به جای خدمت به منافع واقعی آنها یا حتی ایدئولوژی خود رئیس‌جمهور، رای‌دهندگان را دستکاری می‌کند. اگر کاندیداها، پویش‌ها و مشاوران همگی استفاده از چنین هوش مصنوعی سیاسی را نپذیرفتند، می‌توان از دستکاری انتخاباتی هوش مصنوعی جلوگیری کرد. اگر جعبه‌های سیاه مؤثر از نظر سیاسی ساخته می‌شدند، وسوسه استفاده از آنها تقریبا غیرقابل مقاومت بود. در واقع، مشاوران سیاسی ممکن است استفاده از این ابزار‌ها را آن‌گونه که مسئولیت حرفه‌ای آنها لازم است برای کمک به نامزد‌های خود برای پیروزی ببینند. هنگامی که یک نامزد از چنین ابزار مؤثری استفاده می‌کند، به سختی می‌توان انتظار داشت که مخالفان با خلع سلاح یک‌جانبه مقاومت کنند. حفاظت از حریم خصوصی پیشرفته کمک خواهد کرد. کلاگر برای هدف قرار دادن افراد، ایجاد پیام‌هایی که برای متقاعد کردن یا دستکاری آنها طراحی شده و آنها را در طول یک پویش ردیابی و هدف‌گیری مجدد می‌کند، به دسترسی به مقادیر زیادی از داده‌های شخصی بستگی دارد. هر ذره‌ای از اطلاعاتی که شرکت‌ها یا سیاست‌گذاران دستگاه را انکار می‌کنند، کارایی آن را کم می‌کند.
 راه‌حل دیگر مربوط به کمیسیون‌های انتخابات است. آنها می‌توانند سعی کنند این ماشین‌ها را ممنوع یا به‌شدت تنظیم کنند. بحث شدیدی در مورد اینکه آیا می‌توان چنین گفتار «مثل» را، حتی اگر ماهیت سیاسی داشته باشد، تنظیم کرد یا خیر، وجود دارد. سنت افراطی آزادی بیان در آمریکا باعث می‌شود بسیاری از دانشگاهیان برجسته بگویند که نمی‌تواند.
 اما دلیلی وجود ندارد که به طور خودکار حفاظت اصلاحیه اول را به محصولات این ماشین‌ها گسترش دهیم. این کشور ممکن است به خوبی تصمیم بگیرد که به ماشین‌ها حقوق بدهد، اما این باید تصمیمی مبتنی بر چالش‌های امروزی باشد، نه این فرض نادرست که دیدگاه‌های جیمز مدیسون در سال ۱۷۸۹ برای اعمال هوش مصنوعی در نظر گرفته شده است.
 تنظیم‌کننده‌های اتحادیه اروپا در حال حرکت در این مسیر هستند. سیاستگذاران پیش‌نویس قانون هوش مصنوعی پارلمان اروپا را اصلاح کردند تا «سیستم‌های هوش مصنوعی برای تاثیرگذاری بر رای‌دهندگان در پویش‌ها» را به‌عنوان «پرخطر» و مشمول بررسی‌های نظارتی تعیین کنند.
 یکی از گام‌های امن‌تر از نظر قانون اساسی، اگر کوچک‌تر باشد، که قبلا تا حدی توسط تنظیم‌کننده‌های اینترنت اروپایی و در کالیفرنیا اتخاذ شده، ممنوع کردن ربات‌ها از معرفی خود به عنوان مردم است. به عنوان مثال، مقررات ممکن است مستلزم آن باشد که پیام‌های پویش زمانی با سلب مسئولیت همراه باشند، زمانی که محتوای آنها توسط ماشین‌ها به جای انسان تولید شده باشد. سیستمی مانند کلاگر نشان می‌دهد که مسیر ناتوانی جمعی انسان ممکن است نیازی به هوش عمومی مصنوعی مافوق بشری نداشته باشد. ممکن است فقط به مبارزان و مشاوران بیش از حد نیاز داشته باشد که ابزار‌های جدید قدرتمندی داشته باشند که می‌توانند به طور موثر دکمه‌های میلیون‌ها نفر را فشار دهند.