
Фильтр измeняeт пиксeли тaким oбрaзoм, чтo видeo и изoбрaжeния стaнoвятся нeпригoдными ради изгoтoвлeния дипфeйкoв.
С рaзвитиeм нoвыx тexнoлoгий дипфейков распознать достоверность той или некоторый информации, публикуемой в интернете, становится выразительно сложнее. Подобные технологии позволяют с легкостью жонглировать изображениями и видео за онколь использования нейронных сетей, способных надевать личину речь, движения и внешний обличие людей.
В этой связи категория ученых из Бостонского университета разработала алгорифм, позволяющий защитить изображения с использования в качестве основы дипфейков.
Алгорифм накладывает на изображение возможно ли видео невидимый фильтр, и на случай если кто-то попытается пустить в ход нейронную сеть для модификации сих файлов, они либо останутся помимо изменений, либо станут совершенно искаженными – фильтр изменяет пиксели таким образом, который видео и изображения становятся непригодными про изготовления дипфейков.
Разработчики проекта разместили завершающий код технологии на GitHub, а тоже опубликовали видео, демонстрирующее ее работу.
Соффиона