مجله معتبر تایمز در ماه مارس ۲۰۲۲ (اسفند ۱۴۰۰ و فروردین ۱۴۰۱) مطلبی درباره یک زن ۱۸ ساله مردمی به نام لوبا دُوژنکو منتشر کرد تا زندگی ساکنان این کشور در شرایط بحرانی فعلی را شرح دهد. مقاله‌ای تایمز ادعا می‌کند که لوبا دوژنکو روزنامه‌نگاری خوانده می‌شود، زبان انگلیسی را به‌خوبی صحبت نمی‌کند و پس از آغاز عملیات نظامی روسیه، تصمیم اسلحه به دست گرفته می‌شود.

آن‌طور که دیجیتال ترندز می‌نویسد، لوبا دوژنکو شخصیت واقعی نیست و مقاله تایمز مدت‌زمان کوتاهی پس از انتشار، از روی سایت حذف شد. دوژنکو شخصیتی جعلی در فضای آنلاین بود که با تمرکز بر حواشی بین روسیه و در توییتر جلب توجه کرد و فالورهای زیادی جذب کرد.

حساب کاربری متعلق به دوژنکو تا قبل از ماه مارس ۲۰۲۲ توییتی منتشر نکرد. همچنین تا قبل از آن زمان، حساب یادشده نام کاربری متفاوتی داشت. به‌علاوه توییت‌هایی که حساب لوبا دوژنکو درباره‌ی وضعیت عمومی منتشر می‌کند، از روی توییت‌های حساب‌های کاربری افراد واقعی کپی شده بود. احتمالاً همین توییت‌ها باعث شدند که نظر مجله تایمز به حساب لوبا دوژنکو جلب شود.

در ابتدا همه فکر می‌کردند که دوژنکو شخصیت واقعی است، اما بزرگ‌ترین مدرک برای اثبات جعلی بودن این شخصیت دقیقاً همان‌جا جلوی چشم همه کاربران بود: تصویر پروفایل.

چهره دختر خوشحال لوبا دوژنکو کاربر جعلی توییتر

لوبا دوژنکو، کاربر جعلی توییتر

در بخشی از تصویر پروفایل لوبا دوژنکو با دقت می‌شد فهمید که بخشی از او از سرش جدا است. همچنین بررسی‌ها نشان می‌داد چند مژه‌ی او در تصویر مشخص نیست و مهم‌تر از همه است، چشم‌هایش به‌شکلی غیرطبیعی در وسط قاب تصویر می‌شدند.

تمام این شواهد نشان می‌دادند با تصویری که توسط الگوریتم ساخته‌شده است.

هوش مصنوعی با ترکیب هزاران عکس، چهره‌هایی خلق می‌کند که وجود خارجی ندارد

چهره‌ی لوبا دوژنکو توسط فناوری‌هایی که باعث به‌وجود آمدن دیپ‌ها شد، ساخته‌شده بود. دیپ فیک تکنیک تکنیک نیست، اما به‌دلیل پیشرفت‌های فناوری در سال‌های اخیر به‌شدت مورد توجه قرار گرفته است.

دیپ فیک به شما امکان می دهد تصویر چهره یک فرد را روی چهره فردی دیگر در داخل ویدئو قرار دهید. محتوای دیپ فیک ممکن است بسیار خطرناک باشد. تحلیلگران بارها هشدار می دهند که افراد سودجو می توانند از دیپ فیک برای ارائه سخنرانی غیر رهبران جهان استفاده کنند و مشکلات سیاسی را در بار بیاورند. دیپ فیک همچنین به‌دلیل پتانسیلی که برای تولید مستهجن دارد، تکنیکی نگران‌کننده برای بازی با آبروی افراد است. مدتی قبل ویدیوهای دیپ فیک تام کروز، بازیگر معروف هالیوودی در شبکه اجتماعی تیک تاک خبرساز شده بود.

وقتی به الگوریتم‌های مبتنی بر دیپ فیک صدها میلیون عکس از افراد واقعی تزریق می‌شود، این الگوریتم‌ها دقیق‌تر می‌شوند و می‌توانند تصاویری مانند آنچه را که در تصویر پروفایل لوبا دوژنکو می‌بینند خلق کنند. دیپ فیک بسیار مشکل سازند و با اطلاعات غلط مقابله کنند.

ارتشی از چهره های غیرواقعی

در سال‌های اخیر، شبکه‌های اجتماعی با حساب‌های کاربری غیرواقعی و ترول‌هایی که معمولاً هیچ تصویری از پروفایلی ندارند، شدیدتر است. در همین حین افراد سودجو که به‌دنبال تولید محتوای اسپم می‌شوند، به‌لطف هوش مصنوعی به ابزارهای پرقدرت و ارزشمندی مجهز شده‌اند. این افراد به کمک الگوریتم‌های دیپ فیک تصاویری می‌سازند که به‌طرز خلق‌کننده هشداردهنده و ترسناکی واقعی به نظر می‌رسد.

قبل‌ترول‌ها، افراد واقعی را روی حساب کاربری خود می‌گذاشتند و با انجام یک‌سری کارها می‌شد صاحب اصلی تصویر را پیدا کرد و به جعلی بودن حساب کاربری پی برد، اما این کار برای تصاویری که با خلق مصنوعی مصنوعی ساخته شده و تقریباً غیرممکن است، انجام می‌شود، چون این تصاویر است. تازه و منحصربه فرد هستند.

خیلی از مردم حتی در صورتی که با دقت به تصویر نگاه کنند، متوجه غیر واقعی بودن آن نمی شوند. دلیل این است که هوش مصنوعی در سال‌های متوالی پیشرفت‌های زیادی به خود دیده و در زمینه‌های خلق تصاویر واقع‌گرایانه بسیار دقیق عمل می‌کند.

دکتر سوفی نایتینگلاستاد روانشناسی در دانشگاه لنکستر بریتانیا، می‌گوید این احتمال وجود دارد که مردم غیرواقعی‌بودن چهره‌ی خلق‌شده با هوش مصنوعی را تشخیص دهند که تنها ۵۰ درصد است. در نگاه اول عقیده از مردم گفته می‌شود که می‌توانند چهره‌های مصنوعی را از چهره‌های واقعی به نظر می‌رسند.

دکتر نایتینگل می‌گوید تمام افرادی که بدون دانش تخصصی درباره فتوشاپ یا CGI به ابزارهای تولید جعلی دسترسی داشته باشد، می‌تواند از استفاده از فناوری استفاده کند. این استاد روانشناسی ادعا می‌کند که از الگوریتم‌های دیپ فیک با اهداف منفی استفاده می‌کند، درمقایسه‌با فناوری‌های قبلی تهدید بزرگ‌تری می‌شود.

چهره زن و مرد خوشحال جعلی هوش مصنوعی

تصاویری از دیتاست FFHQ و تصاویر خلق‌شده‌ی StyleGAN2 که به سختی از آن قابل‌تشخیص هستند.

یاسینه مکدادپژوهشگر ایتالیایی امنیت سایبری در دانشگاه فلوریدای آمریکا که آمریکا مدلی را با دقت 95.2 درصد برای تشخیص چهره‌های جعلی کند، می‌گوید که باعث می‌شود تصاویر واقعی خلق‌شده با ابزارهای مصنوعی مصنوعی برای تولید آن‌ها ساخته شود.

به گفته‌ی مک‌داد شبکه‌های مولد تخصامی یا به بیانی بهتر، شبکه‌های زایای دشمن‌گونه (GAN) که از آن‌ها برای خلق این تصاویر استفاده می‌شود، از شبکه‌های عصبی بی‌نظیر می‌شود که با هدف بهبود کیفیت نهایی تصویر، ضد مخالف کار می‌کنند. یکی از این شبکه‌ها (گ یا مولد) وظیفه دارد تصاویر جعلی را تولید کند و شبکه‌های دیگر را فریب دهد. شبکه دوم (D یا فرق‌گذار) یاد می‌کند که نتایج حاصل از شبکه‌های G را شناسایی کند و آن‌ها را از چهره‌های واقعی جدا کند. یاسینه مکداد می‌گوید «این بازی برآیند صفر» بین شبکه‌ی G و شبکه‌ی D به ابزار دیپ فیک امکان می‌دهد «تصویری غیرقابل‌تشخیص» تولید کند.

چهره‌های خلق‌شده با هوش مصنوعی با سرعتی سرسام‌آور اینترنت را تصرف کرده‌اند. حساب توییتری لوبا دوژنکو برای خلق تصویر نهایی، تصویر ده‌ها آدم واقعی را با هم ترکیب کرد. الگوریتم‌های دیپ فیک دائماً در پویش‌های نگران‌کننده‌تر نیز استفاده می‌شود و این موضوع خطر را به صدا درمی‌آورد.

مقالات مرتبط:

گوگل در سال ۲۰۲۰ یک پژوهشگر حوزه‌ی اخلاقیات هوش مصنوعی به نام تیمنیت گبرو را اخراج کرد، چون گبرو مقاله‌ای منتشر کرده بود که سوگیری‌های موجود در الگوریتم‌های گوگل را می‌داد. کوتاهی از اخراج تیمنیت گبرو از گوگل پس از حساب کاربری توییتری که در تصویر پروفایل آن‌ها از چهره‌های خلق شده با هوش مصنوعی استفاده شده است. بهیک‌باره ظاهر شدند و شروع به تخریب گبرو کردند. این حساب‌های کاربری مدعی شدند که اعضای سابق تیم تحقیقات هوش مصنوعی گوگل هستند و به همه کاربرانی که از گبرو حمایت کرده بودند نیز حمله کردند. مشابه آن توسط مشابه چین نیز انجام شده است تا روایت‌های دولتی در شبکه‌های اجتماعی ترویج داده شود.

اگر توییتر را به‌صورت گذرا بررسی کنید، خیلی زیاد طول نمی‌کشد تا با حساب‌هایی که از چهره‌های جعلی استفاده می‌کنید، وارد شوید. گردانندگان بسیاری از حساب‌هایی که درباره موضوعات جنجالی مثل واکسن توییت می‌نویسند، در پشت چهره‌های خلق‌شده با هوش مصنوعی پنهان می‌شوند.

توییتر و فیسبوک به‌شدت با این حساب‌های اسپم مخالفند و در صورت شناسایی، آن‌ها را سریعاً از خارج شدن می‌کنند. حتی توییتر ادعا کرده که روزانه از یک میلیون حساب کاربری اسپم می‌کند. این شبکه‌های اجتماعی برای مقابله با ترول‌هایی که از چهره‌های جعلی استفاده می‌کنند، حتی با وجود این‌که توییتر مشخصاً در بخش رهنمودهای کاربران اعلام کرده‌اند «جعل هویت افراد، سازمان‌ها یا گروه‌ها با هدف فریب دیگران یا استفاده از هویت جعلی به‌گونه‌ای که روی تجربه‌ی کاربری استفاده می‌کنند، وجود ندارد». افراد دیگر تاثیر منفی بگذارند» ممنوع است.

یک شرکت حوزه‌ی هوش مصنوعی به نام Sensity تخمین می‌زند که بین 0.2 تا 0.7 کاربران شبکه‌های اجتماعی معروف از تصاویری که با کامپیوتر خلق شده‌اند استفاده می‌کنند. این عدد در نگاه اول خیلی بزرگ به نظر نمی‌رسد، اما نباید فیسبوک، اینستاگرام و توییتر به‌ترتیب دارای ۲.۹ میلیارد، ۱.۴ میلیارد و ۳۰۰ میلیون کاربر هستند و حتی بخش کوچکی از آن‌ها معادل میلیون‌ها حساب کاربری است. این حساب‌ها می‌توانند در پویش‌هایی که اطلاعات نادرست را رواج می‌دهند شرکت کنند.

تولیدکننده‌ی یک افزونه مرورگر گوگلم که با شناسایی چهره‌های جعلی را دارد، ادعاهای Sensity را بررسی کرده است. آلبرتو ریتزولی، شبکه V7 Labs می‌گوید به‌طور میانگین یک درصد از تصاویری که مردم در فضای آنلاین آپلود می‌کنند، جعلی هستند.

بازارگاه چهره های جعلی

بازارگاه چهره های جعلی خلق شده با هوش مصنوعی AI

یکی از عواملی که به تکثیر بیش از حد چهره‌های جعلی در شبکه‌های اجتماعی کمک می‌کنند این است که به‌راحتی می‌توان به چنین چهره‌هایی دسترسی پیدا کرد. در پلتفرم‌هایی مثل Generated Photos همه افراد می‌توانند با پرداخت تنها چند دلار به صدها هزار چهره غیرواقعی با کیفیت بالا دسترسی پیدا کنند. از طرفی که به چند تصویر جعلی برای اهداف کوتاه‌مدت مانند پویش‌های هتک آبروی افراد نیاز دارند و نمی‌خواهند پول خرج کنند می‌توانند به وب‌سایت‌هایی مانند thispersondoesnotexist.com بروند مراجعه کنند. هر باری که این وب سایت را بارگذاری کنید، تصویر کاملاً ایجاد شده می‌شوند.

وب‌سایت‌های این چنینی باعث ایجاد زندگی برای افرادی مثل می‌شود بنجامین استریک بسیار چالش برانگیزتر باشد. استریک مدیر تحقیقات مرکز پذیرش اطلاعات در بریتانیا است و اعضای تیمش به طور روزانه ساعت از زمان خود را صرف مدیریت و تجزیه و تحلیل و تجزیه و تحلیل تحلیل فریبنده در فضای آنلاین می‌کنند.

بنجامین استریم می‌گوید: «اگر فناوری‌های مولدیک خودکار را وارد مجموعه‌هایی از پروفایل‌های دارای چهره‌های جعلی کنید و خودتان را به عضویت استارتاپی جعلی جا بزنید، می‌توانید در فضای مجازی اجتماعی اجتماعی انجام دهید و رفتارهای بسیار فریبنده را ببینید.»

فناوری‌های مبتنی بر هوش مصنوعی پایه‌گذار خدمات ارزشمندی هستند

ایوان براون، بنیان‌گذار پلتفرم Generated Photos می‌گوید که نباید با این نگاه منفی باشد. او ادعا می کند که تصاویر خلق شده با GAN موارد استفاده‌ی بسیار مثبتی نیز دارند. مانند ناشناس کردن چهره‌ها در سرپیس استریت ویو گوگل مپس و شبیه سازی دنیای مجازی در بازی‌های ویدیویی. او می‌گوید پلتفرم تحت مدیریتش استفاده از تصاویر جعلی را برای این منظور از توسعه می‌دهد.

براون می‌گوید که امیدوار است سیستم‌های دفاعی تولید شده باشد. براون پیش‌بینی می‌کند که شبکه‌های اجتماعی در نهایت عکس‌های خلق شده با مصنوعی را از عکس‌های واقعی تشخیص دهند.

تنظیم مقررات برای فناوری‌های مولد ناشی از هوش مصنوعی کاری است. از آنجایی که این فناوری‌ها پایه‌های زیادی از خدمات ارزشمند دارند. یکی از کاربردهای چنین فناوری‌هایی فیلتر جدید اسنپ‌چت و زوم است که صحنه نورپردازی را به‌صورت هوشمند تنظیم می‌کند.

جورجیو پاترینیSensity، می‌گوید مسدودسازی سرویس‌هایی مانند Generated Photos نمی‌تواند جلوی چهره‌های خلق‌شده با هوش مصنوعی را بگیرد. او معتقد است که پلتفرم‌های مختلف برای مقابله با این نوع تصاویر می‌توانند.

مدیر تحقیقات شرکت Graphika (فعال در حوزه تجزیه و تحلیل شبکه‌های اجتماعی) می‌گوید تا زمان مقابله با سرسختانه و پلتفرم‌های جدی، استفاده از محتوای جعلی باعث کاهش اعتماد مردم به نهادهای دولتی و رسانه‌ها شود. او میگوید برای مبارزه با سوءاستفاده‌های این چنینی از فناوری باید سیستم‌های آموزشی آغاز به کار کنند و به مردم یاد دهند که چگونه معتبر بودن منابع خبری را بررسی کنند.

چگونه جعلی بودن چهره‌ها را در فضای آنلاین تشخیص دهیم؟

راه‌هایی مطمئن برای تشخیص چهره‌های خلق‌شده با هوش مصنوعی وجود دارد. نکته مهمی که نباید فراموش کرد این است که تصاویر این چنین به‌سادگی با هزاران عکس ایجاد شده است. بنابراین با این‌که تصویر نهایی واقع‌گرایانه به‌نظر می‌رسد، در صورتی که دقت کنید می‌توانید نکات عجیبی را در تصویر ببینید.

ممکن است فرم گوش‌ها یا حتی گوشواره‌ها با هم‌خوانی‌ها نباشد، یا احتمال تارهای مو در همه‌جای تصویر وجود داشته باشد. همچنین ممکن است قاب عینک عجیب به نظر برسد. با دقت به موارد دیگری نیز می‌توانید نکات غیرطبیعی را در تصاویر پیدا کنید.

برجسته‌ترین نشانه این است که در اکثر تصاویر خلق‌شده با هوش مصنوعی چشم‌های فرد در موقعیت ثابتی قرار می‌گیرند: مرکز صفحه‌نمایش. ویدیوی زیر را ببینید تا به این موضوع پی ببرید.

در تصاویر خلق‌شده با هوش مصنوعی، ثابت‌ترین موقعیت چشم‌های فرد است و در مرکز تصویر دیده می‌شود

دکتر سوفی نایتینگل می‌گوید بزرگ‌ترین تهدید ناشی از تصاویر خلق‌شده با مصنوعی، دامن زدن به محتوای دروغین است. هرچه تعداد محتواهای مربوط به موضوعی خاص بیشتر باشد، احتمال این که مردم آن موضوع را جعلی تلقی کنند کاهش پیدا کنند.

دکتر نایتینگل می‌گوید: «اگر نتوانیم درباره‌ی حقایق اساسی دنیای اطراف‌مان خردورزی، جوامع و دموکراسی‌های ما درمعرض خطر جدی قرار گرفتن می‌گیرند.»



اگر دوست داشتی امتیاز دادن یادت نره!