סרטוני זיוף מושלמים יזוהו על ידי בינה מלאכותית
סרטוני זיוף מושלמים יזוהו על ידי בינה מלאכותית

וִידֵאוֹ: סרטוני זיוף מושלמים יזוהו על ידי בינה מלאכותית

וִידֵאוֹ: סרטוני זיוף מושלמים יזוהו על ידי בינה מלאכותית
וִידֵאוֹ: Ranking Every Episode of Gumball Ever (Season 4-6) - YouTube 2024, אַפּרִיל
Anonim
הקרנת הבכורה של האופרה על הרעלת ליטוויננקו מתחילה באנגליה
הקרנת הבכורה של האופרה על הרעלת ליטוויננקו מתחילה באנגליה

לפני שנה, Manish Agrawala של סטנפורד סייע בפיתוח טכנולוגיית סינכרון שפתיים שאפשרה לעורכי וידאו לשנות את דברי הרמקולים כמעט באופן בלתי מורגש. הכלי יכול להכניס בקלות מילים שאדם מעולם לא דיבר, אפילו באמצע משפט, או למחוק מילים שאמר. הכל ייראה מציאותי בעין בלתי מזוינת ואפילו למערכות מחשוב רבות.

כלי זה הקל הרבה יותר על תיקון טעויות מבלי לצלם מחדש סצנות שלמות, והתאים גם תוכניות טלוויזיה או סרטים לקהלים שונים במקומות שונים. אבל טכנולוגיה זו יצרה גם הזדמנויות חדשות מטרידות לסרטונים מזויפים שקשה למצוא אותם, מתוך כוונה ברורה לעוות את האמת. לדוגמה, סרטון רפובליקני שנערך לאחרונה השתמש בטכניקה מחוספסת יותר לראיון עם ג'ו ביידן.

הקיץ, Agrawala ועמיתיו בסטנפורד ובאוניברסיטת ברקלי חשפו גישה מבוססת בינה מלאכותית לטכנולוגיית סינכרון שפתיים. התוכנית החדשה מזהה במדויק יותר מ -80 אחוז מהזיופים, ומזהה את הפערים הקטנים ביותר בין צלילי אנשים לצורת פיהם.

אבל אגרואלה, מנהל מכון סטנפורד לחדשנות מדיה ופרופסור למדעי המחשב בפורסט באסק, המזוהה גם עם מכון סטנפורד לבינה מלאכותית ממוקדת אדם, מזהיר כי אין פתרון טכני ארוך טווח לזיופים עמוקים.

איך זיופים עובדים

ישנן סיבות לגיטימיות למניפולציות בוידאו. לדוגמה, כל מי שמצלם תוכנית טלוויזיה, סרט או פרסומת בדיונית, יכול לחסוך זמן וכסף באמצעות כלים דיגיטליים לתיקון שגיאות או התאמה אישית של תסריטים.

הבעיה מתעוררת כאשר משתמשים בכלי זה בכוונה להפצת מידע כוזב. ורבות מהטכניקות אינן נראות לצופה הממוצע.

סרטוני זיוף עמוקים רבים מסתמכים על החלפות פנים, ממש מציבים פני אדם על סרטון של אדם אחר. אך בעוד כלים להחלפת פנים יכולים להיות משכנעים, הם יחסית גסים ולרוב משאירים חפצים דיגיטליים או ויזואליים שמחשב יכול לזהות.

מצד שני, טכנולוגיות סנכרון השפתיים פחות נראות ולכן קשה יותר לאתר אותן. הם מניפולציות על חלק קטן בהרבה מהתמונה ולאחר מכן מסנתזים תנועות שפתיים התואמות בדיוק איך פיו של אדם היה זז בפועל אם הוא היה מדבר מילים מסוימות. לדברי אגרואל, בהתחשב במספיק דוגמאות של תדמית וקול של אדם, מפיק מזויף יכול לגרום לאדם "להגיד" כל דבר.

זיהוי זיופים

מודאג מהשימוש הלא מוסרי בטכנולוגיה כזו, Agrawala עבדה עם אוהד פריד, דוקטורנט בסטנפורד, כדי לפתח כלי איתור; חני פריד, פרופסור מאוניברסיטת קליפורניה, בית הספר למידע בברקלי; ושרוטי אגרוואל, דוקטורנטית בברקלי.

בתחילה התנסו החוקרים בטכניקה ידנית בלבד בה הצופים בחנו צילומי וידאו. זה עבד טוב, אבל בפועל זה היה עתיר עבודה ולוקח זמן.

החוקרים בדקו אז רשת עצבית המבוססת על בינה מלאכותית שתהיה הרבה יותר מהירה לבצע את אותו ניתוח לאחר אימון בוידאו עם הנשיא לשעבר ברק אובמה. הרשת העצבית זיהתה יותר מ -90 אחוזים מסנכרון השפתיים של אובמה עצמו, אם כי הדיוק של רמקולים אחרים ירד לכ -81 אחוזים.

מבחן אמיתי לאמת

החוקרים אומרים כי גישתם היא רק חלק ממשחק החתול והעכבר. ככל שטכניקות הזיוף העמוק ישתפרו, הן ישאירו אפילו פחות מפתחות.

בסופו של דבר, אומרת אגראוואלה, הבעיה האמיתית היא לא כל כך להילחם בסרטונים מזויפים עמוקים כמו להילחם בדיסאינפורמציה. למעשה, הוא מציין, חלק גדול מהמידע השגוי נובע מעיוות המשמעות של מה שאנשים אמרו בפועל.

"כדי להפחית מידע מוטעה, עלינו לשפר את אוריינות התקשורת ולפתח מערכות אחריות", הוא אומר. "זה יכול להיות חוקים האוסרים על ייצור מכוון של מידע מוטעה ועל ההשלכות של הפרתם, כמו גם מנגנונים לסילוק הפגיעה הנובעת מכך".

מוּמלָץ: