#هوش_مصنوعی
هـوش مصنوعـی تهدیدی برای جوامـع و دموکراسـی!
کانورسیشن در گزارشی به اینکه آیا سازمانها میتوانند از مدلهای زبان هوش مصنوعی مانند چتجیپیتی برای ترغیب رایدهندگان به رفتارهای خاص استفاده کنند یا خیر، پرداخته است.
به گزارش خبرگزاری صداوسیما، سناتور جاشهاولی در جلسه استماع سنای آمریکا از سام آلتمن، مدیرعامل اوپنای آی پرسید: آیا سازمانها میتوانند از مدلهای زبان هوش مصنوعی مانند چتجیپیتی برای ترغیب رایدهندگان به رفتارهای خاص استفاده کنند، آلتمن پاسخ داد که او واقعا نگران است که برخی از افراد ممکن است از مدلهای زبانی برای دستکاری، متقاعد کردن و درگیر شدن در تعاملات فردی با رایدهندگان استفاده کنند.
آلتمن توضیح بیشتری نداد، اما ممکن است چیزی شبیه به این سناریو را در ذهن داشته باشد. تصور کنید که بهزودی، فناوران سیاسی ماشینی به نام کلاگر (Clogger) را توسعه دهند. یک پویش سیاسی در جعبه سیاه. کلاگر بیوقفه فقط یک هدف را دنبال میکند: به حداکثر رساندن شانس برتری يك نامزد در پویشی که خدمات کلاگر را خریداری میکند.
در حالی که شبکههای اجتماعی مانند فیسبوک، توئیتر و یوتیوب از اشکال هوش مصنوعی برای ترغیب کاربران به سپری کردن زمان بیشتری در سایت خود استفاده میکنند، هوش مصنوعی کلاگر هدف دیگری دارد: تغییر رفتار رای دادن مردم.
کلاگر چگونه کار میکند؟
دانشمندان علوم سیاسی معتقدند که چیزی مانند کلاگر میتواند از اتوماسیون برای افزایش چشمگیر مقیاس و بهطور بالقوه اثربخشی تکنیکهای دستکاری رفتار و هدفگیری خرد که پویشهای سیاسی از اوایل دهه دو هزار استفاده کردهاند، استفاده کند.. همانطور که تبلیغ کنندگان از مرور و سابقه شبکههای اجتماعی شما برای هدف قرار دادن تبلیغات تجاری و سیاسی استفاده میکنند، کلاگر نیز به صدها میلیون رایدهنده به صورت جداگانه توجه میکند.
کلاگر این سه پیشرفت را نسبت به دستکاری رفتار الگوریتمی فعلی ارائه میدهد. اولا، مدل زبان آن پیامهایی را ایجاد میکند، متنها، شبکههای اجتماعی و ایمیل، شاید شامل تصاویر و ویدئوها متناسب با شخص کاربر. در حالی که تبلیغکنندگان به صورت راهبردی تعداد نسبتا کمی تبلیغات را قرار میدهند، مدلهای زبانی مانند چتجیپیتی میتوانند پیامهای منحصربهفرد بیشماری را برای شخص هر کاربر در طول پویش ایجاد کنند.
دوم، کلاگر از تکنیکی به نام یادگیری تقویتی برای ایجاد پیدرپی پیامهایی استفاده میکند که احتمال تغییر رای فرد را افزایش میدهد. یادگیری تقویتی یک رویکرد یادگیری ماشینی، آزمون و خطاست که در آن رایانه اقداماتی را انجام میدهد و درباره اینکه کدام کار بهتر است بازخورد دریافت میکند تا یاد بگیرد چگونه به یک هدف دست یابد. ماشینهایی که میتوانند Go، شطرنج و بسیاری از بازیهای ویدئویی را بهتر از هر انسان دیگری انجام دهند، از یادگیری تقویتی استفاده کردهاند.
سوم، در طول یک پویش، پیامهای کلاگر میتوانند به منظور در نظر گرفتن پاسخهای کاربر به ارسالهای قبلی دستگاه و آنچه که در مورد تغییر نظر دیگران آموخته است، تکامل یابند. کلاگر میتواند در طول زمان مکالمات پویا را با کاربران ادامه دهد. پیامهای کلاگر شبیه تبلیغاتی است که ما را در وبسایتها و رسانههای اجتماعی مختلف دنبال میکنند.
ماهیت هوش مصنوعی
پیامهایی که کلاگر ارسال میکند ممکن است محتوای سیاسی داشته باشند یا نباشند. تنها هدف این سیستم به حداکثر رساندن سهم رای است و احتمالا راهبردهایی را برای دستیابی به این هدف طراحی میکند که هیچ مبارز انسانی به آن فکر نمیکرد.
امکان ارسال اطلاعات به رای دهندگان مخالف احتمالی در مورد علایق غیرسیاسی که در ورزش یا سرگرمی دارند برای دفن پیامهای سیاسی که دریافت میکنند، است. امکان دیگر ارسال پیامهای بیاختیاری است که همزمان با پیامهای مخالفان باشد و دیگری دستکاری گروههای دوستان شبکههای اجتماعی رایدهندگان است تا این حس را ایجاد کنند که حلقههای اجتماعی آنها از نامزد مربوطه حمایت میکنند.
کلاگر هیچ توجهی به حقیقت ندارد. در واقع، هیچ راهی برای شناخت درست یا نادرست بودن محتوای تولیدی آن وجود ندارد. هدف این سیستم تغییر رای کاربران است نه ارائه اطلاعات دقیق.
از آنجا که این سیستم یک نوع جعبه سیاه از هوش مصنوعی است، مردم راهی برای دانستن اینکه از چه راهبردهایی استفاده میکند، ندارند. اگر کمپین ریاست جمهوری خواهان، کلاگر را در سال ۲۰۲۴ معرفی کند، کمپین دموکراتها احتمالا مجبور میشود به همان شکل، شاید با دستگاهی مشابه، پاسخ دهند. اگر مدیران پویشهای انتخاباتی فکر میکردند که این ماشینها مؤثر هستند، رقابت ریاستجمهوری ممکن است به Clogger vs Dogger ختم شود و برنده مشتری ماشین موثرتر باشد. دانشمندان علوم سیاسی و صاحبنظران میتوانند در مورد دلیل غالب شدن این سیستمهای هوش مصنوعی حرفهای زیادی برای گفتن داشته باشند، اما احتمالا هیچکس واقعا چیزی درباره آنها نمیداند. محتوایی که در روز انتخابات برنده شد، میتوانست از یک هوش مصنوعی باشد که صرفا بر پیروزی متمرکز شده بود، بدون ایدههای سیاسی خودش، به جای نامزدها یا احزاب. در این مفهوم بسیار مهم، یک ماشین برنده انتخابات میشد تا یک شخص. انتخابات دیگر دموکراتیک نخواهد بود، حتی اگر همه فعالیتهای عادی دموکراسی یعنی سخنرانیها، تبلیغات، پیامها، رایگیری و شمارش آرا انجام شده باشد. رئیسجمهور منتخب هوش مصنوعی میتواند یکی از دو راه را طی کند. او میتواند از ردای انتخابات برای پیگیری سیاستهای حزب جمهوریخواه یا دموکرات استفاده کند. اما از آنجایی که ممکن است ایدههای حزب ارتباط چندانی با این موضوع نداشته باشد که چرا مردم به روشی که رای دادند، اهمیتی نمیدهند اقدامات رئیسجمهور لزوما منعکسکننده اراده رایدهندگان نیست. رایدهندگان به جای انتخاب آزادانه رهبران سیاسی و سیاستهای خود، توسط هوش مصنوعی دستکاری میشدند.
مسیر دیگر این است که رئیسجمهور پیامها، رفتارها و سیاستهایی را دنبال کند که ماشین پیشبینی میکند شانس انتخاب مجدد را به حداکثر میرساند. در این مسیر، رئیسجمهور هیچ سکو یا برنامه خاصی فراتر از حفظ قدرت نخواهد داشت. اقدامات رئیسجمهور که توسط کلاگر هدایت میشود، به احتمال زیاد به جای خدمت به منافع واقعی آنها یا حتی ایدئولوژی خود رئیسجمهور، رایدهندگان را دستکاری میکند. اگر کاندیداها، پویشها و مشاوران همگی استفاده از چنین هوش مصنوعی سیاسی را نپذیرفتند، میتوان از دستکاری انتخاباتی هوش مصنوعی جلوگیری کرد. اگر جعبههای سیاه مؤثر از نظر سیاسی ساخته میشدند، وسوسه استفاده از آنها تقریبا غیرقابل مقاومت بود. در واقع، مشاوران سیاسی ممکن است استفاده از این ابزارها را آنگونه که مسئولیت حرفهای آنها لازم است برای کمک به نامزدهای خود برای پیروزی ببینند. هنگامی که یک نامزد از چنین ابزار مؤثری استفاده میکند، به سختی میتوان انتظار داشت که مخالفان با خلع سلاح یکجانبه مقاومت کنند. حفاظت از حریم خصوصی پیشرفته کمک خواهد کرد. کلاگر برای هدف قرار دادن افراد، ایجاد پیامهایی که برای متقاعد کردن یا دستکاری آنها طراحی شده و آنها را در طول یک پویش ردیابی و هدفگیری مجدد میکند، به دسترسی به مقادیر زیادی از دادههای شخصی بستگی دارد. هر ذرهای از اطلاعاتی که شرکتها یا سیاستگذاران دستگاه را انکار میکنند، کارایی آن را کم میکند.
راهحل دیگر مربوط به کمیسیونهای انتخابات است. آنها میتوانند سعی کنند این ماشینها را ممنوع یا بهشدت تنظیم کنند. بحث شدیدی در مورد اینکه آیا میتوان چنین گفتار «مثل» را، حتی اگر ماهیت سیاسی داشته باشد، تنظیم کرد یا خیر، وجود دارد. سنت افراطی آزادی بیان در آمریکا باعث میشود بسیاری از دانشگاهیان برجسته بگویند که نمیتواند.
اما دلیلی وجود ندارد که به طور خودکار حفاظت اصلاحیه اول را به محصولات این ماشینها گسترش دهیم. این کشور ممکن است به خوبی تصمیم بگیرد که به ماشینها حقوق بدهد، اما این باید تصمیمی مبتنی بر چالشهای امروزی باشد، نه این فرض نادرست که دیدگاههای جیمز مدیسون در سال ۱۷۸۹ برای اعمال هوش مصنوعی در نظر گرفته شده است.
تنظیمکنندههای اتحادیه اروپا در حال حرکت در این مسیر هستند. سیاستگذاران پیشنویس قانون هوش مصنوعی پارلمان اروپا را اصلاح کردند تا «سیستمهای هوش مصنوعی برای تاثیرگذاری بر رایدهندگان در پویشها» را بهعنوان «پرخطر» و مشمول بررسیهای نظارتی تعیین کنند.
یکی از گامهای امنتر از نظر قانون اساسی، اگر کوچکتر باشد، که قبلا تا حدی توسط تنظیمکنندههای اینترنت اروپایی و در کالیفرنیا اتخاذ شده، ممنوع کردن رباتها از معرفی خود به عنوان مردم است. به عنوان مثال، مقررات ممکن است مستلزم آن باشد که پیامهای پویش زمانی با سلب مسئولیت همراه باشند، زمانی که محتوای آنها توسط ماشینها به جای انسان تولید شده باشد. سیستمی مانند کلاگر نشان میدهد که مسیر ناتوانی جمعی انسان ممکن است نیازی به هوش عمومی مصنوعی مافوق بشری نداشته باشد. ممکن است فقط به مبارزان و مشاوران بیش از حد نیاز داشته باشد که ابزارهای جدید قدرتمندی داشته باشند که میتوانند به طور موثر دکمههای میلیونها نفر را فشار دهند.