

Корпорація Microsoft презентувала дві нові технології з використанням штучного інтелекту для протидії дезінформації на президентських виборах у США 2020. Технології запрацюють найближчим часом.
На початку вересня корпорація Microsoft у своєму блозі повідомила про створення двох технологій боротьби з дезінформацією, зокрема, на президенстських виборах у США 2020. Технології повинні запрацювати до початку виборів.
Перша технологія, Microsoft Video Authenticator, визначає діпфейки – заміна обличчя однієї людини на іншу на відео, чи фото за допомогою штучного інтелекту. Друга технологія знаходить маніпуляції у медія-контенті.
Microsoft Video Authenticator аналізує відео, або фото та визначає, чи контент є оригінальним, чи видозміненим (і на скільки відсотків). Технологія діпфейків вже наробила багато скандалів та галасу за час свого існування. Американські політики прогнозують, що такий спосіб маніпуляції, як діпфейк (“говорити від імені когось”) скоро стане потужною зброєю в інформаційній війні. Саме тому корпорація Microsoft вирішила створити технологію, яка б могла перевіряти фото- та відео-контент, який споживають користувачі, особливо, якщо це стосується значних політичних подій, таких як президентські вибори.
Друга технологія виявляє маніпуляції у медія-контенті та “завіряє” у достовірності медіафалів. Цю технологію розробили Microsoft Research та Microsoft Azure у партнерстві з Програмою захисту демократії. Працює це на двох рівнях:
Простіше кажучи, друга технологія запобігає викривленню контенту, на який посилаються ті, хто продукує фейки, аби створити ілюзію “достовірності” інформаційного вкиду.
Такі технології боротьби з дезінформацією є “життєвонеобхідними” в діджитал епоху та під час інформаційної війни, аби мати здатність критично оцінювати інформацію та швидко її перевіряти. Нові технології від Microsoft дадуть можливість своїм користувачам перевіряти контент швидко та якісно.