چطور اخبار دروغ را متوجه شویم؟
**چگونه از حقیقت محافظت کنیم؟**
در ۲۳ آوریل سال ۲۰۱۳، آسوشیتد پرس توئیتی در صفحهاش گذاشت. که نوشته شده بود: «خبر فوری: در دو انفجار در کاخ سفید باراک اوباما مجروح شده است.» این توئیت در کمتر از ۵ دقیقه ۴۰۰۰ بار توئیت مجدد شد، و بعد از آن فراگیر شد.
00:32
خب خبر این توئیت آسوشیتد پرس حقیقت نداشت. در واقع خبری اشتباه یا جعلی بود، که توسط هکرهای سوری پخش شده بود که در توئیتر آسوشیتد پرس نفوذ کرده بود. هدف آنها ایجاد اختلال در جامعه بود اما موجب اختلال خیلی شدیدتری شدند. چون الگوریتمهای خودکار تجاری بلافاصله با این توئیت تحت تاثیر قرار گرفتند، و شروع به داد وستد بر اساس این پتانسیل کردند که رئیس جمهور ایالات متحده آمریکا مجروح در این انفجار یا کشته شده است. و به محض اینکه آنها شروع به توئیت کردند، بلافاصله بازار سهام سقوط کرد، ۱۴۰ میلیارد دلار ارزش سهام در یک روز از بین رفت.
01:16
رابرت مولر مشاور ویژه دادستان ایالات متحده آمریکا، علیه سه شرکت روسی و همینطور ۱۳ فرد روسی کیفرخواست صادر کرد. این کیفرخواست دررابطه با توطئهی فریب دادن ایالات متحده آمریکا با مداخله درانتخابات سال ۲۰۱۶ ریاست جمهوری بود. و داستان این کیفر خواست چه بود داستان آژانس پژوهشی اینترنت بود، بازوی پنهان کرملین در رسانههای اجتماعی. فقط در مدت انتخابات ریاست جمهوری، با تلاشهای آژانس اینترنتی ۱۲۶ میلیون نفردر امریکا از طریق فیس بوک، به توئیت سه میلیون نفر و معادل ۴۳ ساعت محتوای یوتیوب دسترسی پیدا کردند. که همه جعلی بودند– اطلاعات جعلی برای ایجاد اختلاف نظر در انتخابات ریاست جمهوری ایالات متحده آمریکا.
02:12
پژوهش اخیر دانشگاه آکسفورد نشان داد که در انتخابات اخیر سوئد، یک سوم ازاطلاعات اشاعه داده شده در رسانههای اجتماعی در مورد انتخابات اطلاعات جعلی و یا اشتباه بودند.
02:26
به علاوه این نوع از کمپینهای اطلاعات اشتباه رسانههای اجتماعی میتوانند چیزی باعنوان «تبلیغ نسل کشی» گسترش دهند، برای مثال علیه روهینگیا در برمه، تحریک اوباش، موجب کشته شدن مردم در هند شد.
02:41
ما خبرهای جعلی را بررسی کردیم وشروع به بررسی آنها قبل آنکه فراگیرشدنشان کردیم. اخیرا ما بزرگترین پژوهش طولی را در مورد انتشار آنلاین اخبار جعلی منتشر کردهایم در ماه مارس امسال با عنوان «علم». ما تمام اخبار تایید شده درست و غلط را مطالعه کردیم که تا به حال در توئیترمنتشر شدهاند، از ابتدای سال ۲۰۰۶ تا ۲۰۱۷. و وقتی داشتیم این اطلاعات را مطالعه میکردیم، اخباری را مورد مطالعه قرار دادیم که تایید شده بودند تایید این اخبار از طرف ۶ سازمان مستقل حقیقت یاب اتفاق افتاده بود. پس میدانستیم کدام یک از خبرها درست هستند و کدام یک اشتباه. میزان انتشارشان قابل اندازیگیری است، سرعت انتشار هم همینطور، همینطور عمق و وسعت آنها، چند نفر در این نوع از انتشار اطلاعات گرفتار شدهاند. و ما در این مقاله چه کردیم ما انتشار اخبار درست و غلط را باهم مقایسه کردیم. و این چیزی است که ما به آن رسیدیم.
03:39
ما متوجه شدیم که اخبار غلط بیشتر، سریعتر و عمیقتر پخش میشوند بسیار گستردهتر از خبر واقعی در همه دسته بندیهای اطلاعاتی ما مطالعه کردیم، بعضی مواقع با ایجاد یک بزرگنمایی. و در واقع اخبار سیاسی غلط در صدر این انتشار بودند. انتشاراخبار سیاسی بیشتر و سریعتر و عمیقتر و بسیار گستردهتر از دیگر انواع خبرها بود. وقتی این را فهمیدیم، نه تنها نگران بودیم بلکه کنجکاو هم شده بودیم. چرا؟ چرا باید اخبارغلط بسیار بیشتر، سریعتر و عمیقتر ازاخبار صحیح پخش شود؟
04:11
فرضیه اولی که ما به آن رسیدیم این بود که، «شاید منتشرکنندگان اخبار جعلی، فالوئر زیاد دارند یا نفرات زیادی را دنبال میکنند، یا توئیت بیشتری میکنند، یا شاید اغلب آنها کاربران مورد تایید توئیتر بودند با اعتبار زیاد، یا شاید مدت زمان زیادی هست که درتوئیتر هستند.» پس ما هریک از اینها را به ترتیب چک کردیم. و آنچه که به آن رسیدیم دقیقا برعکس بود. انتشاردهندگان اخبار اشتباه دنبال کنندگان کمی دارند، نفرات کمی را دنبال میکنند که فعالیت کمی دارند، و اغلب کمتر «تایید شدهاند» و سابقه حضورشان در توئیتر کم بود. و هنوز، به نظر میرسد که اخبار اشتباه ۷۰ درصد بیشتر از اخبار درست توئیت مجدد میشود، که همه اینها و دیگر عوامل را کنترل میکند.
04:52
خب ما مجبور شدیم توضیحات دیگری ارائه دهیم. و فرضیه جدید را ابداع کردیم. خوب اگر ادبیات خوانده باشید، واضح است که انسان توجه اش به چیزهای جدید جلب میشود، چیزهایی که در محیط جدید هستند. و اگر ادبیات جامعه شناسی خوانده باشید، میدانید که همه ما دوست داریم مطالب جدید به اشتراک بگذاریم. این باعث میشود که ما اینطور به نظر برسیم که دسترسی به اطلاعات داخل داریم، و با انتشار این اطلاعات اوضاع را تحت کنترل داریم.
05:21
پس کاری که ما میکنیم سنجش میزان جدید بودن توئیتهای درست و یا غلط، در مقایسه با مجموع نوشتههایی که یک فرد دیده است در ۶۰ روز قبل در توئیتر. اما این کافی نبود چون ما به خودمان فکر کردیم، «خب شاید اخبارغلط در مفهوم اطلاعات نظری بسیار جدیدتر بودند، اما شاید مردم آنرا جدید تلقی نکنند.»
05:45
پس برای فهم تلقی مردم از اخبار غلط، ما نگاهی به اطلاعات و احساسات انداختیم که شامل پاسخ به توئیتهای غلط و درست بود. و آنچه که به آن رسیدیم میان مجموعهای از احساسات — تعجب، نفرت، ترس، اندوه، انتظار، شادی و اعتماد– اخبار غلط بطور معناداری تعجب و نفرت را بیشتر نشان میدادند در پاسخ به توئیتهای غلط. و اخبار درست به طور معناداری انتظار بیشتری را به نمایش گذاشته بودند، و البته شادی و اعتماد در پاسخ به توئیتهای درست. تعجب, تایید کننده فرضیه جدید ما است. جدید و تعجب آور است و میخواهیم که آن را به اشتراک بگذاریم.
06:34
در همان زمان کنگرهای در مقابل دو ساختمان کنگره در ایالات متحده، با عنوان نگاهی به نقش رباتها در انتشاراطلاعات غلط برگزار می شد. خب ما این را هم بررسی کردیم- و ما از الگوریتمهای تشخیص ربات استفاده نمودیم تا رباتها را در دادههای خود پیدا و آنها را بیرون بیاندازیم. خب ما آنها را بیرون انداختیم و دوباره بازگرداندیم و مقایسه کردیم که چه اتفاقی برای معیار سنجش ما افتاد. وچیزی که پیدا کردیم این بود که، بله واقعا، رباتها به گسترش اخبار غلط در فضای اینترنت سرعت میبخشند، اما آنها به انتشار اخبار درست هم سرعت میدادند تقریبا با همان میزان. که به این معناست که رباتها مسئول تعیین میزان تغییرات انتشار درست یا غلط بودن نیستند. ما نمیتوانیم از این مسئولیت چشمپوشی کنیم، چون ما انسانها مسئول انتشار آن هستیم.
07:25
خب تا اینجا هر چیزی را که به شما گفتم، متاسفانه برای همه ما، اخبار خوب است.
07:34
دلیل این است که قرار است بدتر از این شود. و دو تکنولوژی خاص اوضاع را بدتر میکنند. ما منتظر ظهور موج عظیمی از رسانههای مصنوعی هستیم. ویدئوهای جعلی, فایلهای صوتی جعلی که به نظر انسان متقاعدکننده هستند. که توسط دو تکنولوژی طراحی میشود.
07:57
نام یکی از آنها «شبکه های مخالف مولد» است. این یک مدل یادگیری ماشینی با دو شبکه است: یک تفکیک کننده، که کارش تعیین این است که آیا چیزی درست است یا نه، و یک مولد، که کارش تولید رسانه مصنوعی است. بنابراین ژنراتور مصنوعی ویدئو و صدای مصنوعی تولید میکند، و تفکیک کننده سعی میکند تشخیص دهد که «این درست است یا جعلی»؟ و در واقع این کار ژنراتور است که شباهت را به حداکثر برساند و تفکیک کننده فریب بخورد و فکر کند که ویدئو و صدای تولید شده واقعا درست است. ماشینی درهایپرلوپ (سیستم سریع حمل ونقل) مجسم کنید، که در فریب دادن ما هر روز بهتر و بهتر میشود.
08:42
این، ترکیبی از تکنولوژی نسل دوم است که، در واقع دموکراتیک سازی هوش مصنوعی برای مردم است، توانایی برای هر کسی، بدون هیچ پیشینه خاصی در هوش مصنوعی یا آموزش ماشینی، برای بکارگیری این نوع از الگوریتمها برای تولید رسانه مصنوعی که در نهایت فرآیند تولید ویدئو را آسانتر میکند.
09:05
کاخ سفید یک ویدئوی جعلی و دستکاری شده یک خبرنگاررا که با یک کارآموزدر تعامل بود سعی داشت میکروفنش را پس بگیرد، پخش کرد. آنها فریمهایی از ویدئو را حذف کرده بودند بطوری که کارهای او تاثیرگذار به نظر برسد. و وقتی فیلمبرداران و بدلکاران و زنان درمورد این نوع از تکنیک مصاحبه کردند، گفتند «بله ما از این همیشه در فیلمها استفاده میکنیم تا مشت و لگدهایمان واقعیتر و تهاجمیتر به نظر برسد.» آنها این ویدئو را بیرون دادند و تا حدی از آن برای حذف جیمآکوستا استفاده کردند، او خبرنگارپرسپس (کارتی که خبرنگارازمحدودیت معاف میشود) از کاخ سفید بود. و CNN باید شکایت کند تا کارت پرس بازگردانده شود.
09:52
حدود ۵ راه مختلف وجود دارد که من فکر میکنم میتوانیم پیگیری کنیم و امروز به برخی از این مشکلات خیلی سخت بپردازیم. هر کدام از آنها قولی دارند، اما هرکدام از آنها چالشهای خاص خود را دارند. اولین مورد برچسب زدن است. اینطور به آن فکر کنید: وقتی به فروشگاه موادغذایی برای خرید غذای مصرفی میروید، برچسب بزرگی روی آن وجود دارد. میدانید که چقدر کالری دارد، چقدر چربی دارد– با اینحال وقتی اطلاعاتی ارائه میکنیم برچسبی نداریم. این اطلاعات چه محتوایی دارد؟ آیا منبع معتبری دارد؟ این اطلاعات از کجا جمع آوری میشوند؟ ما هیچ کدام از آن اطلاعات را نداریم وقتی اطلاعاتی را استفاده میکنیم. این یک راه بالقوه است اما با چالشهایی همراه است. برای مثال، در جامعه چه کسی تصمیم میگیرد، چه چیزی اشتباه و چه چیزی درست است؟ دولتها؟ فیس بوک؟ آیا این یک کنسرسیوم ازافراد حقیقتیاب است؟ چه کسی خود این افراد را چک میکند؟
10:53
یکی دیگر از راههای بالقوه مشوقها هستند. ما میدانیم که طی انتخابات ریاست جمهوری ایالات متحده موجی از اطلاعات جعلی از مقدونیه میآمد هیچ انگیزه سیاسی پشت آن نبود اما در مقابل انگیزه اقتصادی در آن بود. و این انگیزه اقتصادی وجود داشت، چون اطلاعات غلط بسیار بیشتر و سریعتر وبسیارعمیقترازاطلاعات درست جابهجا میشود، و شما هم دلارهای تبلیغات را بدست میآورید همانطور که توجهها را سمت خود جلب میکنید با این نوع از اطلاعات. اما اگربتوانیم گسترش این اطلاعات را تحت فشار قرار دهیم، شاید انگیزه اقصادی را در همان وهله اول قبل از تولید کاهش دهد.
11:32
سوم، میتوانیم در مورد مقررات فکر کنیم، و مطمئنا باید در این مورد فکر کنیم. درحال حاضردر ایالات متحده آمریکا، ما به دنبال آن هستیم که بدانیم چه اتفاقی میافتد اگر فیس بوک و دیگران تنظیم شوند. درحالی که ما باید مواردی چون نحوه نظارت برسخنرانی سیاسی را در نظر بگیریم با این برچسب که این یک سخنرانی سیاسی است، با حصول اطمینان از سرمایه گذاری نکردن بازیگران خارجی از سخنرانی سیاسی، که البته آن هم خطرات خودش را دارد. برای مثال، مالزی حکم شش سال زندان صادر کرده است برای کسانی که اطلاعات جعلی منتشر کنند. و در رژیمهای استبدادی، این نوع از سیاست برای سرکوب عقاید اقلیت استفاده میشود و سرکوب را افزایش میدهند.
12:16
انتخاب چهارم شفافیت است. ما میخواهیم بدانیم الگوریتم فیس بوک چگونه کار میکند. چگونه دادهها با الگوریتمها ترکیب میشوند تا خروجی که میبینیم تولید شود؟ از آنها میخواهیم کیمونو را باز کنند و به ما نشان بدهند که دقیقا در لایههای داخلی فیس بوک چگونه کار میکند. و اگر میخواهیم تاثیر رسانه جمعی بر جامعه را بدانیم، نیاز به دانشمند و محقق و دیگر افرادی داریم که دسترسی به این نوع از اطلاعات داشته باشند. اما هم زمان، از فیسبوک میخواهیم که همه چیزرا قفل کند، که همه آن دادهها در امنیت باشند.
12:52
پس بستر فیس بوک و دیگر رسانه های جمعی با آنچه من شفافیت متناقض مینامم, مواجه هستند. ما همزمان از آنها خواستیم، باز و شفاف باشند و همزمان ایمن. خیلی سخت است که این سوزن نخ شود، اما آنها نیازدارند که این سوزن را نخ کنند اگر ما به وعده فناوریهای اجتماعی دست پیدا کنیم در حالیکه از خطرات آنها جلوگیری شود
13:16
آخرین چیزی که میتوانیم به آن فکر کنیم، الگوریتمها و آموزش ماشینی است. فناوری برای ریشه کن کردن و درک اخبار جعلی و چگونگی انتشار آن طراحی شده است، که سعی در تعدیل جریان آن دارد. انسان ها باید از این تکنولوژی آگاه باشند، چون نمیتوانیم از آن فرار کنیم و پایه و اساس هر راه حل یا رویکرد فناوری یک سوال بنیادی اخلاقی و فلسفی است در مورد اینکه ما چگونه درست و غلط را تعریف میکنیم، به چه کسی این قدرت را میدهیم که درست و غلط را تعریف کند و کدام یک از نظرات موجه است، به کدام نوع از سخنرانی باید مجوز داده شود و از این قبیل چیزها. تکنولوژی یک راه حل برای آن نیست. اخلاقیات و فلسفه راه حل آن است.
14:02
تقریبا هر نظریه تصمیم گیری انسانی، همکاری انسانی و هماهنگی انسانی در وجودش یک حس درست بودن وجود دارد. اما با ظهور اخبار جعلی، ظهور ویدئوهای جعلی، ظهور فایلهای صوتی جعلی، میتوان در مورد نزدیک شدن به مرز پایان واقعیت صحبت کرد، جایی که دیگر نمیتوان گفت چه چیزی درست است و چه چیزی غلط. و این بطور بالقوه فوق العاده خطرناک است.
14:30
باید در دفاع از حقیقت در مقابل اطلاعات اشتباه هوشیار باشیم. با تکنولوژیمان، با سیاستهایمان و شاید مهمتر از همه چیز، با مسئولیت پذیری فردیمان، تصمیمات، رفتارها و عملکردها.
14:49
خیلی ممنونم.