כיצד לזהות סרטונים שזוייפו באמצעות AI

29 אפריל, 2024

מערך הסייבר הלאומי פירסם מדריך המסביר כיצד לזהות סרטוני וידאו שזוייפו באמצעות טכנולוגיות בינה מלאכותית. להלן הבדיקות המיידיות שכל גולש יכול לבצע, לפני שהוא משתף פעולה בלא יודעין עם קמפיינים עויינים

המונח Deep Fake (זיוף עמוק) נוצר באמצעות החיבור בין Deep Learning ו-Fake, ומתאר טכנולוגיה מבוססת בינה-מלאכותית המאפשרת לשנות או לעבד את התוכן של תמונות או סרטוני וידאו, כמעט מבלי שניתן להבחין בזיוף. הטכנולוגיה הזו מאפשרת לבצע זיוף קול, זיוף תנועות, וזיוף תמונות וסרטוני וידאו המתעדים פעילות שבוצעה כביכול על-ידי אדם מסויים – מבלי שהפעולות האלו התקיימו במציאות. הזיהוי של זיופים עמוקים הוא קריטי במניעת הונאות ושמירה על מרחב תודעתי בטוח ומוגן עבור כולנו.

קיבלתם סרטון חשוד ברשת? שאלו את השאלות הבאות:

עקביות: האם הדמות שמדברת בסרטון מדברת או מתנהגת כפי שאתם זוכרים ומכירים את הדמות?

תזמון: מדוע סרטון זה נשלח אליכם דווקא בתזמון מאוד מסוים?

זהות: מי הפיץ את הסרטון ומה האינטרס שלו?

תגובה: האם הסרטון מעורר אצלכם רגשות עזים?

פקפוק: האם הסרטון גורם לכם לפקפק בדברים שכבר הכרתם או באמינותם של אישי ציבור שבהם תמכתם?

רכילות: האם יש בסרטון מידע חשוב, או שתכליתו סנסציה וצהבהבות?

חיזוק: האם מצאתם מקורות אחרים המחזקים את הנאמר בסרטון?

זיוף: האם אתם מזהים בסרטון סממנים של עריכה או זיוף?

כיצד נוכל לזהות זיוף עמוק?

תנועת עיניים לא טבעית: או היעדר תנועת עיניים, כגון היעדר מצמוץ – הם דגלים אדומים. ניסיון לשחזר את פעולת המצמוץ בצורה הנראית טבעית היא מאתגרת. כך גם בשכפול תנועות עיניים של אדם אמיתי. זאת בשל העובדה שעיניו של אדם בדרך כלל עוקבות אחר האדם איתו הוא מדבר.

הבעות פנים לא טבעיות: כאשר משהו לא נראה כשורה בפניו של הדובר בסרטון, הדבר יכול לאותת על מניפולציה מלאכותית שנוצרה, ועל הדבקת שכבת תמונה נוספת על הווידאו המקורי.

עיוותים בפנים: כאשר למשל פניו של מישהו מופנות לכיוון אחד, והאף שלו פונה לכיוון אחר.

חוסר רגש: אם אתם מזהים פער בין הדברים שאומר הדובר בסרטון, לבין הרגש ההגיוני שהוא אמור להפגין כשדברים כאלה נאמרים.

גוף או יציבה מגושמים למראה: סימן נוסף הוא האם צורת הגוף של אדם לא נראית טבעית או שיש מיקום מביך או לא עקבי של הראש והגוף. סימן כזה אמור להיות קל יותר לזיהוי, היות וטכנולוגיות Deep fake מתמקדות בדרך כלל בתווי הפנים ולא בכל הגוף.

תנועת גוף לא טבעית: אם מישהו נראה מעוות או כבוי כשהוא מסתובב הצידה או מזיז את ראשו, או שהתנועות שלו קופצניות מפריים אחד למשנהו.

צבעים וגוונים: גוון עור חריג, שינוי צבע, תאורה מוזרה וצללים שלא במקום.

שיער שלא נראה אמיתי: לא תראו שיער מקורזל או מתעופף באוויר, כי רוב טכנולוגיות הבניה המאכתית עדיין מתקשות לייצר אלמנטים ייחודים שכאלו (לפחות בינתיים…).

השיניים לא נראות אמיתיות: חלק מטכנולוגיות הדיפ פייק הקיימות מתקשות ביצירת שיניים בודדות. כך שהיעדר קווי מתאר המפריד בין השיניים יכול לשמש רמז לזיוף.

טשטוש או חוסר יישור: אם קצות התמונות מטושטשים או שהתמונות החזותיות לא מיושרות – למשל, כאשר הפנים והצוואר של מישהו משתלבים עם גופו.

חוסר עקביות ותקלות באודיו: סנכרון שפתיים לקוי, קולות שנשמעים רובוטיים, הגיית מילים מוזרה, רעשי רקע דיגיטליים, או אפילו היעדר אודיו.

תמונות שנראות לא טבעיות בעת האטה: אם אתם צופים בסרטון וידאו על מסך גדול יותר מהסמארטפון שלכם או שיש לכם תוכנת עריכת וידאו שיכולה להאט את הפעלת הסרטון, אתם יכולים להתקרב ולבחון את התמונות מקרוב יותר. התקרבות לשפתיים, למשל, תעזור לכם לראות אם הן באמת מדברות או אם מדובר בסנכרון שפתיים גרוע.

חיפוש תמונות הפוך: חיפוש אחר תמונה מקורית, או חיפוש תמונה הפוך בעזרת מחשב, יכול לחשוף סרטונים דומים באינטרנט כדי לעזור לקבוע אם תמונה, אודיו או וידאו שונו בדרך כלשהי. בעוד שטכנולוגיית חיפוש וידאו הפוך אינה זמינה עדיין לציבור, בעתיד הלא רחוק כלי שכזה יכול להיות מועיל מאוד.

לא מדווחים על הסרטון במקורות חדשותיים מהימנים: אם מה שהאדם בסרטון אומר או עושה הוא מזעזע או חשוב, התקשורת החדשותית תדווח על כך. אם אתם מחפשים מידע על הסרטון ושום מקורות מהימנים לא מדברים על זה – ככל הנראה הוא מזוייף.

לסיכום, ככל שטכנולוגיית הזיוף העמוק תתקדם, כך גם הקושי לזהות הזיופים יגבר. אך למרות קושי זה, על כולנו מוטלת החובה לצפות בסרטונים ברשת באופן ביקורתי ולהיות מודעים לכך שלא כל מה שאנחנו רואים או שומעים – הוא בהכרח אמיתי ונכון.

מקור: מערך הסייבר הלאומי

Share via Whatsapp

פורסם בקטגוריות: אבטחת סייבר , בינה מלאכותית , חדשות , מלחמה 2023

פורסם בתגיות: CYBER , deep fake , מלחמה