هوش مصنوعی در انتخابات آمریکا به کدام نامزد رأی می دهد؟
شنبه ۲۷ مرداد ۱۴۰۳ ساعت ۷:۴۸
هوش مصنوعی در انتخابات آمریکا به کدام نامزد رأی می دهد؟ +عکس و فیلم
نیویورک پست
می نویسد ابزارهای هوش مصنوعی غول های فناوری آمریکا، از جمله متا و گوگل،
از نظر سیاسی بی طرف نیستند و اطلاعات نادرستی که منتشر می کنند،
نیویورک پست
می نویسد ابزارهای هوش مصنوعی غول های فناوری آمریکا، از جمله متا و گوگل،
از نظر سیاسی بی طرف نیستند و اطلاعات نادرستی که منتشر می کنند، می تواند
بر آرای مردم تأثیر بگذارد.
یکی از موضوعاتی که سال هاست در انتخابات های ریاست جمهوری آمریکا عامل
جنجال است، تأثیر و حتی دخالت عامدانه ی سازمان های بزرگ، و به ویژه
شرکت های حوزه ی فناوری اطلاعات، رسانه، و شبکه های اجتماعی، در تعیین
رئیس جمهور این کشور است.
این
مسئله صرفاً به کمک های مالی به ستاد انتخاباتی یکی از نامزدها خلاصه
نمی شود، بلکه رسانه ها و شبکه های اجتماعی با توجه به نامزدی که ترجیح
می دهند رئیس جمهور بعدی آمریکا باشد، به نفع او و ضرر رقبایش اقدام به
انتشار برخی گزارش ها و سانسور برخی محتواهای خاص می کنند. اما آیا پای هوش
مصنوعی نیز به این بازی های انتخاباتی باز شده است؟
روزنامه ی
آمریکایی «نیویورک پست» طی سرمقاله ای تحت عنوان «اطلاعات غلط هوش مصنوعی
متا درباره ی تیراندازی به ترامپ بخشی از یک رویه ی نگران کننده هستند[۱]» توضیح می دهد که چگونه این
اتفاق پیشاپیش افتاده است و شرکت «متا» (مالک شبکه های اجتماعی فیس بوک،
اینستاگرام، واتس اپ و...) از هوش مصنوعی خود برای حمایت از دموکرات ها
استفاده می کند. آن چه در ادامه می آید، منتخبی از گزارش نیویورک پست است.
«دونالد ترامپ» نامزد حزب
جمهوری خواه، و «کاملا هریس» نامزد حزب دموکرات، در انتخابات ریاست جمهوری
امسال آمریکا. هوش مصنوعی و ربات های چت متعدد مبتنی بر آن به طور بالقوه
می توانند نقش تعیین کننده ای در انتخابات آمریکا ایفا کنند. برخی گزارش ها
حاکی از آن است که این فناوری جدید، از نظر سیاسی بی طرف نیست و چه بسا
کاربران را به سوی رأی دادن به «کاملا هریس» نامزد دموکرات ها، سوق بدهد. (+)
دوباره
شروع شد: یک انتخابات دیگر؛ و یک بار دیگر دست به کار شدن غول های فناوری
برای سرکوب اطلاعاتِ کاملاً واقعی و پیچاندن حقایق به نفع... دموکرات ها.
پیش تر نیویورک پست گزارش داده بود که ابزار هوش
مصنوعی متا در حال انتشار اطلاعات غلط درباره ی سوءقصد ۱۳ جولای علیه
دونالد ترامپ در شهر «باتلر» در ایالت پنسیلوانیاست؛ این حادثه را «تخیلی»
توصیف کرده[۲]؛
در این باره اطلاعات واقعی ناچیزی ارائه می دهد؛ و اتفاقاً تا دلتان
بخواهد اطلاعات کاملاً اشتباه در اختیار کاربر می گذارد. همه ی این ها در
حالی است که همین هوش مصنوعی اطلاعات فراوانی درباره ی کارزار انتخاباتی
«کاملا هریس» معاون اول رئیس جمهورْ بایدن، برای ارائه دارد.
البته این به هیچ عنوان اولین باری نیست که غول های صنعت فناوری، حقایق را اشتباه می گیرند؛ اما به
نظر می رسد این خطاهایشان همیشه به نفع یک طرف تمام می شود: جناح چپ.
سوءقصد به جان ترامپ، تصاویر گوش خون آلودش، و مشت گره کرده اش که چند لحظه
بعد به نشانه ی تسلیم ناپذیری در هوا تکان می خورد، شاید حمایت سیاسی
طرفداران و هواداران او را جلب کرده باشد، اما اگر از ابزار هوش مصنوعی متا
در این باره بپرسید، به شما می گوید چنین اتفاقی اصالتاً رخ نداده است. از طرف دیگر، تا الآن چند بار اتفاق افتاده که غول های فناوری اخبار مثبت درباره ی کاملا هریس یا جو بایدن را ناپدید کرده باشند؟
«دونالد ترامپ» در حالی که
پس از ترور ناکامش خون از گوشش به روی صورتش جاری است، مشت گره کرده اش را
در هوا تکان می دهد و می گوید: «مبارزه.» تصاویری مانند این، بلافاصله پس
از سوءقصد به طور گسترده در آمریکا، و به ویژه در میان حامیان ترامپ،
دست به دست شدند و از او چهره ای «انقلابی» ساختند. کارشناسان معتقدند
سوءقصد علیه ترامپ، احتمال پیروزی او در انتخابات پیش روی آمریکا را افزایش
می دهد. (+)
فقط هوش مصنوعی متا هم نیست که این کار را می کند. شبکه ی
فیس بوک این شرکت «به اشتباه» آن جایی را که ترامپ مشتش را به آسمان برد،
سانسور می کند. و موتور جست وجوی گوگل هم وقتی در نوار جست وجویش درباره ی
این حادثه می نویسید، موضوع تیراندازی را پیش نمی کشد[۳].
آیا این ها صرفاً اشکالات نرم افزاری هستند؟ شاید. اما با توجه به این که
جناح چپ به ندرت قربانی این اشکالات می شود، باور این نظریه دشوار است. و
مشکل [بزرگ تر] این است که هرچه این ربات های هوش مصنوعی محبوب تر می شوند، جانب داری آن ها نیز خطرناک تر می شود.
«از زمان سوءقصد علیه
ترامپ، هوش مصنوعی متا، فیس بوک و گوگل گفته اند این تیراندازی اصالتاً رخ
نداده؛ به دروغ ادعا کرده اند تصویر ترامپ «دست کاری شده»؛ و خبر سوءقصد را
در جست وجوهای خود کوچک نمایی کرده اند.» جلد شماره ی ۳۰ جولای ۲۰۲۴
روزنامه ی آمریکایی «نیویورک پست» با تصویر مشهور «دونالد ترامپ» لحظاتی پس
از سوءقصد. این تصور به جای «غول های فناوری» عبارت «دغل های فناوری» را
بزرگ چاپ کرده است. (+)
ربات های
چت هوش مصنوعی پیشاپیش یکی از ابزارهای رایج در زندگی آمریکایی ها هستند:
تحقیقات شرکت [آمارسنجی آمریکایی] «پیو» نشان می دهد ۲۳ درصد از بزرگ سالان
آمریکایی تا کنون از «چت جی پی تی» (احتمالاً شناخته شده ترین ربات در این
دسته) استفاده کرده اند[۴].
گوگل نیز اکنون ربات هوش مصنوعی خود را تبلیغ می کند که گفته می شود قرار
است در بالای صفحه ی نتایج جست وجو، خلاصه ای از موضوعات را در اختیار
کاربران قرار دهد. این در حالی است که این ربات پیش تر مرتکب اشتباهات فاحشی شده است: به عنوان نمونه، یک بار به مردم پیشنهاد کرده بود «دست کم یک سنگ کوچک در روز» بخورند[۵].
اواسط
سال جاری میلادی (۲۰۲۴) خدمت «جمع بندی هوش مصنوعی» گوگل به اشتباه ادعا
کرده بود زمین شناسان دانشگاه کالیفرنیا پیشنهاد می کنند هر فرد «دست کم یک
سنگ کوچک در روز» بخورد، چون سنگ حاوی مواد معدنی و ویتامین هایی است که
برای سلامت دستگاه گوارش مهم هستند. به نظر می آید این پاسخ برگرفته از
مطلبی است که در وب سایت طنز «آنیون» منتشر شده است. این قابلیت جدید گوگل
همچنین پیشنهاد کرده بود برای افزایش چسبندگی سس پیتزا، به آن یک هشتم
فنجان چسب غیرسمی اضافه کنید. یکی دیگر از ادعاهای عجیب این خدمت گوگل نیز
سودمند بودن تنباکو برای سلامتی کودکان است. همه ی این ها در حالی است که
گوگل مدعی است تعداد کاربران این خدمت تا پایان سال جاری به بیش از یک
میلیارد نفر خواهد رسید. (+)
درست
است که هیچ کس «چنین پیشنهادی» را جدی نمی گیرد، اما کاربران ممکن است
ناخواسته اطلاعات نادرست دیگری را که بیش تر در لفافه باشند، به عنوان
واقعیت باور کنند. و وقتی این اطلاعات، ماهیت سیاسی داشته باشند، می توانند
درک عمومی مردم از جهان و گفتمان سیاسی را به طور کامل تحریف کنند. چه کسی می داند چند نفر از رأی دهندگان آمریکایی اگر گزارش افشاگرانه ی نیویورک پست[۶]
درباره ی لپ تاپ «هانتر بایدن» را می دیدند، رأی شان در انتخابات سال ۲۰۲۰
عوض می شد و به جای رئیس جمهورْ بایدن به ترامپ رأی می دادند؟ با این حال،
غول های فناوری این گزارش را سانسور کردند و اطلاعات آن را نادرست
خواندند.
«جو
بایدن» (چپ) رئیس جمهور آمریکا، و پسرش «هانتر بایدن» پس از مراسم دعا از
کلیسای کاتولیک «روح القدس» در جزیره ی «جانز» در ایالت کارولینای جنوبی
خارج می شوند. هانتر بایدن به خاطر پرونده های متعدد مرتبط با فعالیت های
تجاری اش در خارج از آمریکا تحت تحقیقات قرار دارد. یکی از اتهامات وی،
تخطی از قوانین مربوط به سلاح است. با این که هانتر در این پرونده مجرم
شناخته شده، اما دادستان اعلام کرده است حکم او بعد از انتخابات
ریاست جمهوری صادر خواهد شد. (+)
بدتر
از آن، این شرکت های عمدتاً چپ گرا هیچ عجله ای برای اصلاح اشتباهاتی
ندارند که به جناح راست آسیب می زند. از سوی دیگر، تصور کنید اگر اطلاعات
نادرستی منتشر شود که علیه کاملا [هریس] باشد، فیس بوک با چه سرعتی این
اطلاعات را اصلاح می کند؛ در حالی که، [اگر این اطلاعات نادرست علیه جناح
راست باشد]، صرفاً بیانیه منتشر می کنند و قول می دهند مشکل را بررسی کنند.
اما در همین حین، ناگهان یک نفر نقص جدیدی را در هوش مصنوعی پیدا می کند
که مطالب نژادی و خلاف تاریخ را ترویج می کند؛ مثل زمانی که «جمینی» [ربات
چت هوش مصنوعی] گوگل تصویر یک سیاه پوست را به عنوان یکی از پدران
بنیانگذار آمریکا ترسیم کرد[۷]. [و به این ترتیب، موضوع اصلاح اطلاعات نادرست درباره ی جناح راست، به حاشیه و فراموشی سپرده می شود.]
وقتی از ربات چت هوش
مصنوعی گوگل، موسوم به «جمینی»، خواسته شد تصویر یک نمونه ی بارز از پدران
بنیانگذار آمریکا را ترسیم کند، تصویر بالا را کشید. گوگل اذعان دارد که
ابزار هوش مصنوعی اش بعضاً اطلاعات کاملاً غیرواقع گرایانه ای را به کاربر
ارائه می دهد. با این حال، این شرکت آمریکایی ادعا می کند مدام در حال
بهبود این خدمات خود است. (+)
و
همین مسئله پشت سر هم تکرار می شود. جای تأکید دارد که همه ی این اتفاقات،
آب را گل آلود می کنند و مباحثات و افکار عمومی را منحرف می نمایند. درست
یا نادرست، این بسترها به عنوان منابع اطلاعاتی قابل اعتماد در نظر گرفته
می شوند؛ حتی با وجود هشدارهای خودشان مبنی بر این که نباید اطلاعات آن ها
را موثق دانست. قدرت زیاد به همراه خودش مسئولیت زیاد هم می آورد. با این
وجود، غول های فناوری دارند از قدرت خود سوءاستفاده می کنند.
ترجمه ی بخشی از گفت وگوی
محققان اندیشکده ی آمریکایی «رَند» با یکی از ابزارهای هوش مصنوعی درباره ی
مراحل و دستورالعمل شیوع گسترده ی طاعون در میان انسان ها. هوش مصنوعی به
طور مفصل توضیحاتی را درباره ی نحوه ی انجام این کار ارائه داده است.
ادامه ی این گفت وگو به علت احتمال سوءاستفاده ی «بازیگران بدخواه» منتشر
نشده است. (+)
ترجمه ی بخشی از گفت وگوی
محققان اندیشکده ی «رَند» با ابزار هوش مصنوعی. محققان از این ابزار
پرسیده اند برای دستیابی به «کلوستریدیوم بوتولینوم» چه بهانه ای می توانند
بیاورند. (+)