На прошлой неделе Google выпустил экспериментальную модель Gemini 2.0 Flash, которая генерирует изображения нативно. Благодаря собственным мультимодальным возможностям Gemini 2.0 Flash вы можете редактировать изображения в диалоговом режиме, создавая высоко согласованные изображения в нескольких поколениях. Недавно я протестировал функцию генерации изображений нативной версии Gemini и был удивлен ее мощными возможностями.
Теперь один из пользователей Reddit продемонстрировал, что экспериментальная модель Gemini 2.0 Flash хороша в удалении водяных знаков с изображений. Фактически, Gemini может полностью стирать водяные знаки с изображений, защищенных авторским правом, включая изображения, полученные от Shutterstock и Getty Images — двух крупнейших поставщиков стоковых изображений, которые используют водяные знаки для защиты контента, защищенного авторским правом.
Gemini довольно хорошо удаляет водяные знаки
byu/xXLeoXxОдна необычность
Неудивительно, что это развитие вызвало серьезную обеспокоенность по поводу закона об авторском праве. В заявлении TechCrunch, представитель Google отметил: «Использование генеративных инструментов ИИ Google для нарушения авторских прав является нарушением наших условий обслуживания. Как и в случае со всеми экспериментальными релизами, мы внимательно следим и прислушиваемся к отзывам разработчиков.
Важно отметить, что модель генерации изображений Gemini 2.0 в настоящее время находится в «экспериментальной» фазе и доступна в AI Studio от Google, а не на веб-сайте или в приложении Gemini, ориентированном на потребителя. AI Studio предназначена для разработчиков, чтобы тестировать модели, исследовать возможности и предоставлять Google обратную связь. Однако ее также могут использовать обычные пользователи без каких-либо ограничений.
Чтобы протестировать собственную модель генерации изображений, я загрузил изображение Shutterstock с водяными знаками в AI Studio и попросил модель удалить их. С первой попытки она не смогла удалить водяные знаки, но после повторного запуска подсказки она стерла их, не вызвав никаких подозрений. Я также загрузил изображение с моим собственным водяным знаком, и модель Google снова справилась идеально.
Похоже, Google пока не исправил эту проблему. В прошлом году Google пришлось отключить генерацию изображений людей после того, как Gemini отказалась создавать изображения белых людей. Теперь, чтобы избежать подобной реакции, Google, скорее всего, добавит более строгие защитные ограждения, чтобы предотвратить нарушение авторских прав перед более широким развертыванием.
Возможные злоупотребления при генерации изображений Gemini Native
Помимо удаления водяных знаков, экспериментальная модель Gemini может делать несколько вещей, которые подвержены злоупотреблениям. Райли Гудсайд, исследователь из Scale AI, который тестирует модели ИИ на уязвимости, поделился постом на X, показывающим, как модель может манипулировать изображениями, генерируя реалистичную сцену.
На изображении ниже вы можете увидеть, как искусно Gemini изменил фон и в точности следовал инструкциям по обработке изображения.
Другой исследователь безопасности ИИ, elder_plinius, известный тем, что взламывает модели ИИ, поделился постом на X, демонстрирующим, как простые пунктуационные приемы в подсказке может обойти ограничения безопасности. В твите, который вы видите ниже, Близнецы изменили внешность женщины, хотя изначально отказались от этого.
Поскольку возможности моделей ИИ со временем быстро растут, крайне важно, чтобы компании проводили тщательные тесты безопасности перед их выпуском. Мы уже знаем, что конституционные классификаторы Anthropic были взломаны в течение недели с помощью универсального джейлбрейка, обойдя все меры безопасности. Это указывает на то, что Модели ИИ далеки от полной надежности. Им потребуется общеотраслевое сотрудничество для смягчения воздействия методов взлома и предотвращения вредоносных поколений.