مهندسی ادراک در هوش مصنوعی
نفیسه زارعی
همین چند وقت قبل بود که ناگهان شرکت گوگل سرِ کیسه را شُل کرد و اجازه داد دانشجویان برخی کشورها - منهای کشور خودمان - از حسابهای کاربری هوش مصنوعی بدون محدودیت استفاده کنند. هنوز چند ساعت نگذشته بود که در اینستاگرام، عدهای دست به کار شدند؛ فروش حساب کاربری، البته مشروط به دور زدن تحریمها. هر حساب، با قیمتی که به شوخی و جدی میشد اسمش را گذاشت پول خون صاحب گوگل، به مشتریها فروخته میشد.
به واسطه دوستی که بلد بود چطور تحریم گوگل را با فقط یک دلار ناقابلِ ایالات متحده دور بزند، خیلی زود به دنیایی پا گذاشتم که تا پیش از آن فقط اسمش را شنیده بودم. روزهای اول، همهچیز خلاصه میشد در ساخت تصویرهای عجیب و غریب با هوش مصنوعی؛ چهرههایی که وجود نداشتند، صحنههایی که هرگز اتفاق نیفتاده بود و خیابانهایی که بیشتر شبیه خیال بودند تا واقعیت.
کمکم تب این ماجرا بالا گرفت و شبکههای اجتماعی پر شد از تصاویر شگفتانگیز و گاهی ترسناک؛ تصاویری که آنقدر واقعی بودند که مرز میان واقعیت و مجاز را برای مخاطب عادی محو میکردند. آنچه در ابتدا یک سرگرمی تکنولوژیک به نظر میرسید، خیلی زود چهره دیگری از خود نشان داد؛ چهرهای که امروز کارشناسان از آن با عنوان «سلاح جدید در جنگ روایتها» یاد میکنند.
قیچی دو لبه حقیقت و مجاز
آنچه در نگاه اول یک تجربه شخصی با هوش مصنوعی به نظر میرسد، درواقع تصویری کوچک از یک میدان بزرگتر است؛ میدانی که امروز «جنگ روایتها» نام گرفته و ابزار اصلی آن، نه سلاح نظامی بلکه تصویر، ویدئو و ادراک عمومی است. هوش مصنوعی دقیقاً در همین نقطه وارد بازی میشود؛ جایی که سرعت، احساس و باور، از حقیقت جلو میزنند. کمی زمان را به عقب ببریم، سالهاست که از مسئله جنگ نرم در رسانههای مختلف یاد میشود اما تلفیق آن با جنگ روایت آن هم از نوع هوش مصنوعی، موضوع عجیب و پیچیدهای است که جای پرداخت مفصل دارد.
در جنگ روایتها، مهم نیست چه چیزی واقعاً رخ داده است، بلکه مهم این است که چه چیزی دیده میشود، چه چیزی باور میشود و چه روایتی دستبهدست میچرخد. هوش مصنوعی این امکان را فراهم کرده که هر گروه یا جریانی، روایت مطلوب خود را نه با تحلیل و استدلال، بلکه با تصویر و احساس تولید کند. تصویری که گاهی با یکبار دیده شدن بیش از دهها تکذیبیه بر ذهن مخاطب اثر میگذارد.
واقعیتِ دستکاریشده؛ سلاح بیصدا
تا پیش از این، جعل تصویر و ویدئو نیازمند تخصص، زمان و هزینه بود. امروز اما با چند کلیک، میتوان صحنهای ساخت که هرگز اتفاق نیفتاده، اما آنقدر واقعی است که حتی کاربران حرفهای هم در تشخیص آن دچار تردید میشوند. این همان نقطهای است که کارشناسان از آن به عنوان «مرگ مرجعیت حقیقت» یاد میکنند.
در جریان اعتراضات و اغتشاشات اخیر، تصاویر و ویدئوهایی در فضای مجازی منتشر شد که بعداً مشخص شد یا مربوط به سالها قبل است یا اساساً با هوش مصنوعی ساخته شده است. اما مشکل اصلی، خودِ جعلی بودن محتوا نبود؛ مشکل آنجا بود که این تصاویر، پیش از راستیآزمایی، میلیونها بار دیده و بازنشر شدند و اثر خود را بر ذهن مخاطب گذاشتند.
امین احمدنیا، کارشناس حوزه امنیت رسانه در توضیح ماهیت این نبرد میگوید: «در جنگ روایتها، اصلاح خبر دیگر فایده ندارد. تصویر جعلی کار خودش را کرده است. ذهن مخاطب یک بار قانع شده و بازگرداندن آن بسیار سخت است.»
این جمله کوتاه دکتر احمدنیا، توصیف دقیقی از واقعیتی تلخ در نبرد رسانهای امروز است. برخلاف جنگ کلاسیک که در آن، خسارت قابل اندازهگیری و قابل جبران است، در جنگ روایتها آسیبها نامرئی اما ماندگارند.
این کارشناس در ادامه تأکید میکند: «وقتی یک تصویر جعلی منتشر میشود، دیگر با یک خبر طرف نیستیم که بتوان آن را اصلاح یا تکذیب کرد. ما با یک تجربه ذهنی طرفیم؛ تجربهای که برای مخاطب، حکم واقعیت را پیدا کرده است.
در چنین شرایطی، حتی اگر رسانهها ساعتها بعد واقعیت را توضیح دهند، بخش قابل توجهی از مخاطبان یا آن را نمیبینند، یا اساساً تمایلی به پذیرش آن ندارند. تصویر جعلی، پیش از آنکه تکذیب شود، خشم، ترس یا همدلی ایجاد کرده و کارکرد روانی خود را انجام داده است. به همین دلیل است که در جنگ روایتها، سرعت و احساس، بر دقت و حقیقت غلبه میکند.»
وقتی احساس، جای حقیقت را میگیرد
هوش مصنوعی بهویژه در تولید محتوای احساسی، عملکردی فراتر از انتظار دارد. تصاویر تولیدشده معمولاً طوری طراحی میشوند که خشم، ترس، همدلی یا نفرت را تحریک کنند. اینجاست که روایت جعلی نه از مسیر عقل، بلکه از مسیر احساس وارد ذهن مخاطب میشود.
مردم عادی که درگیر زندگی روزمره هستند، فرصت بررسی منبع و ابزار تشخیص جعلی بودن تصویر را ندارند، آنها با تصویری مواجه میشوند که به نظر «واقعی» میآید و واکنش نشان میدهند؛ واکنشی که دقیقاً همان چیزی است که طراحان جنگ روایتها میخواهند.
فاطمه شهبازی، شهروند تهرانی در واکنش به تصویر جعلی که با عنوان پسر ایران در شبکههای اجتماعی بازتولید و منتشر شد به گزارشگر کیهان میگوید: «وقتی تصویر را دیدم، عصبانی شدم. زمان زیادی طول کشید که از طریق صفحه چند خبرگزاری داخلی متوجه شدم تصویر جعلی است، با این حال نمیتوانستم جعلی بودنش را بپذیرم تا اینکه خودم با تصویرساز هوش مصنوعی بیشتر آشنا شدم.»
هوش مصنوعی؛ سلاح ایدهآل جنگ روایتها
پس از پایان جنگ سخت 12روزه، هرچند منطق نبرد تغییری نکرد اما زمین بازی عوض شد. همانطور که در میدان نظامی، سرعت عمل و غافلگیری تعیینکننده است، در میدان روایت نیز سرعت، ارزانی و فراگیری سه مؤلفهای هستند که نتیجه را رقم میزنند. هوش مصنوعی دقیقاً در نقطه تلاقی همین سه مؤلفه ایستاده است؛ به همین دلیل به سلاحی ایدهآل برای جنگ روایتها تبدیل شده است.
نخستین ویژگی، سرعت بالاست. هوش مصنوعی میتواند در چند ثانیه تصویری تولید کند که پیشتر برای ساخت آن، ساعتها زمان، نیروی انسانی و تجهیزات لازم بود. در جنگ روایتها، روایتِ زودتر دیدهشده، روایتِ غالب است.
کارشناسان رسانه معتقدند در فضای هیجانی پساجنگ، مخاطب منتظر تحلیل نمیماند؛ اولین تصویری که میبیند، همان را مبنای قضاوت قرار میدهد. اینجاست که هوش مصنوعی با تولید سریع تصویر و ویدئو، عملاً ضربه اول را میزند.
دومین مؤلفه، هزینه پایین است. تولید عملیات رسانهای در گذشته نیازمند شبکه رسانهای، اتاق فکر و بودجه قابلتوجه بود. امروز اما یک فرد یا یک گروه کوچک، با حداقل امکانات میتواند محتوایی تولید کند که میلیونها نفر آن را ببینند. این کاهش هزینه، جنگ روایتها را از انحصار دولتها و رسانههای بزرگ خارج کرده و آن را به یک نبرد نامتقارن تبدیل کرده است.
مطهره کیانی، کارشناس فناوری اطلاعات و امنیت شبکه میگوید: «هوش مصنوعی توازن قوا را در جنگ روایتها به هم زده است. امروز یک حساب کاربری ناشناس میتواند اثری بگذارد که قبلاً فقط از عهده رسانههای بزرگ برمیآمد.»
کیانی تأکید میکند: «در جنگ روایتها، هدف قانع کردن همه نیست؛ کافی است هر گروه، روایت دلخواه خودش را داشته باشد. هوش مصنوعی دقیقاً همین امکان را فراهم کرده است. در چنین شرایطی، تصویر جعلی حتی لازم نیست کاملاً باورپذیر باشد؛ کافی است با ذهن مخاطب جور دربیاید. وقتی مخاطب چیزی را میبیند که مطابق انتظار یا خشم درونیاش است، کمتر به صحت آن شک میکند. این همان مکانیسمی است که باعث میشود تصاویر ساختگی، بهسرعت تبدیل به مرجع قضاوت و واکنش اجتماعی شوند.»
از این زاویه، هوش مصنوعی نه فقط ابزار تولید محتوا، بلکه شتابدهنده جنگ روایتهاست؛ شتابدهندهای که پس از پایان جنگ سخت، میدان نبرد را به درون گوشیهای تلفن همراه کشاند و نشان داد نبرد اصلی، حالا بر سر تصویر ذهنی مردم از واقعیت است.
از سرگرمی تا عملیات رسانهای
جنگ روایتها جایی آغاز میشود که تولید محتوا از دست رسانههای رسمی خارج میشود و به گوشیهای تلفن همراه مردم میرسد. هوش مصنوعی این روند را شتاب داده و کاری کرده است که هر کاربر، بدون آنکه خود را خبرنگار یا فعال رسانهای بداند، به یک بازیگر مؤثر در گردش روایتها تبدیل شود.
در ابتدا، بسیاری از کاربران برخوردی کنجکاوانه و حتی سرگرمکننده با ابزارهای تولید تصویر داشتند اما همین ابزار، وقتی پای مسائل اجتماعی و سیاسی به میان آمد، کارکرد دیگری پیدا کرد. تصویر دیگر فقط برای دیده شدن نبود؛ حامل پیام شد، احساس تولید کرد و قضاوت ساخت.
احسان اقدسی، پژوهشگر مطالعات اجتماعی در این باره به کیهان میگوید: « اغلب کاربران، هنگام بازنشر تصاویر تولید شده با هوش مصنوعی، خود را در حال مشارکت در یک کنش رسانهای نمیبینند. آنها صرفاً به چیزی واکنش نشان میدهند که به نظرشان مهم، تکاندهنده یا قابل همذاتپنداری است. اما در منطق جنگ روایتها، همین واکنش ساده، نقش کلیدی دارد. بازنشر یک تصویر جعلی، حتی بدون نیت قبلی، به معنای تقویت همان روایتی است که طراحان آن دنبال میکنند.»
این پژوهشگر اجتماعی ادامه میدهد: «همین ویژگی باعث میشود تصاویر تولیدشده با هوش مصنوعی، حتی اگر کاملاً دقیق نباشند، بهراحتی دستبهدست شوند. آنها معمولاً طوری طراحی میشوند که با پیشفرضهای ذهنی مخاطب هماهنگ باشند و به همین دلیل، کمتر مورد تردید قرار میگیرند. نکته مهمتر آن است که با گسترش این روند، مرز میان دروغ عمدی و خطای ناخواسته کمرنگ میشود. بسیاری از کاربران، نه از سر دشمنی، بلکه از روی همدلی یا خشم، محتوایی را منتشر میکنند که بعدها مشخص میشود بخشی از یک روایت جعلی بوده است. اما در جنگ روایتها، نیت افراد تعیینکننده نیست؛ اثر نهائی اهمیت دارد.»
تجارب خارجی
پدیده استفاده از هوش مصنوعی در جنگ روایتها، محدود به ایران یا یک جغرافیای خاص نیست. تجربه کشورهای مختلف نشان میدهد که هرجا بستر شبکههای اجتماعی فعال و جامعه مستعد التهابهای اجتماعی بوده، این ابزار بهسرعت در خدمت عملیات رسانهای قرار گرفته است. در ایالات متحده، همزمان با انتخابات ریاستجمهوری ۲۰۲۰ و پس از آن، انتشار تصاویر و ویدئوهای جعلی از نامزدها، به یکی از نگرانیهای جدی نهادهای امنیتی و رسانهای تبدیل شد. برخی از این محتواها بهقدری واقعی بودند که حتی رسانههای رسمی نیز در تشخیص اولیه آنها دچار خطا شدند. گزارشهای منتشرشده در همان مقطع نشان میدهد که بخش قابل توجهی از مخاطبان، پس از تکذیب رسمی نیز حاضر به پذیرش جعلی بودن تصاویر نبودند.
در اروپا، بهویژه در جریان اعتراضات اجتماعی در فرانسه و آلمان، تصاویر ساختهشده با هوش مصنوعی برای بزرگنمایی خشونت یا القای سرکوب گسترده بهکار گرفته شد. در آنجا هدف، نه اطلاعرسانی، بلکه تشدید دوقطبی اجتماعی و افزایش فشار روانی بر افکار عمومی بود.
در هند، استفاده از تصاویر جعلی در تنشهای قومی و مذهبی، حتی به خشونتهای میدانی منجر شد. گزارشهای رسمی نشان میدهد که بسیاری از این درگیریها، با انتشار یک تصویر یا ویدئوی جعلی آغاز شده است؛ محتوایی که بعداً مشخص شد اساساً وجود خارجی نداشته است.
این نمونهها نشان میدهد که هوش مصنوعی، بهسرعت در حال تبدیل شدن به زبان مشترک جنگ روایتها در سطح جهانی است؛ زبانی که بدون نیاز به ترجمه، پیام خود را منتقل میکند و مستقیماً احساس و منطق مخاطب را هدف میگیرد.
وقتی حقیقت گم میشود
یکی از پیامدهای جدی گسترش هوش مصنوعی در تولید تصویر، فرسایش آرام اما مداوم اعتماد عمومی است. جامعهای که هر روز با سیل تصاویر تکاندهنده، روایتهای متناقض و ویدئوهای احساسی مواجه میشود، بهتدریج دچار نوعی بیحسی شناختی میشود؛ وضعیتی که در آن، مخاطب نه فرصت راستیآزمایی دارد و نه انگیزهای برای باور یا تکذیب.
علیرضا جعفری، کارشناس رسانه در اینباره میگوید: «در جنگ روایتها، هدف اصلی الزاماً باوراندن یک دروغ مشخص نیست؛ بلکه ایجاد تردید پایدار نسبت به همه چیز است. وقتی مخاطب به هر روایتی شک کند، عملاً قدرت تشخیص خود را از دست میدهد.»
در این میان، شبکههای اجتماعی نقش شتابدهنده را بازی میکنند. الگوریتمها نه بر اساس صحت، بلکه بر اساس میزان تعامل تصمیم میگیرند و تصویری که شوکآورتر، احساسیتر یا خشنتر باشد، بیشتر دیده میشود. هوش مصنوعی دقیقاً در همین نقطه وارد میدان شده است؛ تولید محتوایی که برخلاف واقعیت و مطابق ذائقه الگوریتمها طراحی میشود.