본문 바로가기

각종 AI 소식들

이미지 저작권 방어, 생성 AI 모델 망치기 : 나이트쉐이드, 글레이즈

반응형

 

 


'나이트쉐이드(Nightshade)': AI 모델의 무결성을 위협하는 도구

 

나이트쉐이드에 의해 손상된 모델로 생성된 이미지

 

'나이트쉐이드(Nightshade)'란 도구는 AI 회사가 창작자의 동의 없이 자신의 작품을 모델 훈련에 사용하는 것을 막기 위해 개발되었습니다. 이 도구를 사용하면 이미지 생성 AI 모델의 훈련 데이터에 "독"을 주입하여 모델의 미래 버전을 손상시킬 수 있습니다.

 

주요 AI 기업들 중 OpenAI, Meta, Google, 그리고 Stability AI는 저작권 소재와 개인 정보를 동의나 보상 없이 사용했다는 주장으로 아티스트로부터 소송을 당하고 있습니다. 시카고 대학교의 교수는 '나이트쉐이드'가 아티스트들의 권리를 보호하는 데 강력한 도구로 작용할 것으로 전망하고 있습니다.

 

이 도구를 이용하면 아티스트는 이미지의 픽셀에 눈에 띄지 않는 수정 사항을 주입할 수 있습니다. 이렇게 변경된 이미지로 훈련된 AI 모델은 출력이 부정확해지게 됩니다.

 

'나이트쉐이드'의 주요 기능은 다음과 같습니다:

 

  • AI 회사가 아티스트의 창작물을 동의 없이 활용하는 것을 방지합니다.
  • 작품을 온라인에 업로드하기 전에 픽셀에 눈에 띄지 않는 변화를 추가합니다.
  • AI 모델의 취약점과 아티스트들의 저작권 보호 필요성을 강조합니다.
  • AI 모델의 해석을 조작하는 방식으로 이미지 픽셀을 미묘하게 변경합니다.

 

'나이트쉐이드'를 사용하면 오염된 학습 데이터로 인해 생성된 AI 모델이 왜곡된 이미지를 생성할 수 있습니다.

반응형

'글레이즈(Glaze)'도  마찬가지!

 

이 도구는 '나이트쉐이드(Nightshade)'와 유사한 방식으로 작동하며, AI 회사들이 아티스트의 개인적인 스타일을 도용하는 것을 막기 위해 고안되었습니다. 

 

아티스트들의 고유한 스타일을 보호하기 위한 또 다른 도구로 '글레이즈(Glaze)'가 출시되었습니다. '글레이즈'는 '나이트쉐이드'와 유사한 방식으로 작동하여 이미지 픽셀을 미묘하게 변경하면서 AI 모델의 해석을 조작합니다. 이를 통해 예술가들은 자신의 작품 스타일을 난독화하거나 흐릿하게 만들 수 있습니다. 예를 들어, 목탄 초상화 스타일이 AI 시스템에서는 유화로 인식될 수 있게끔 변형될 수 있습니다.

 

이 도구는 AI 모델이 아티스트의 고유한 스타일을 복제하지 못하도록 보호합니다. 이미지 픽셀을 미묘하게 변경하여 예술가들의 작품 스타일을 난독화하거나 흐릿하게 만들 수 있습니다. 예를 들어, 목탄 초상화 스타일은 AI 시스템에선 유화로 해석될 수 있습니다.

 

저작권 방어 AI 모델의 한계점

그러나, 이러한 도구들이 악용되거나 남용될 경우에 대한 우려도 제기되었습니다. 그러나 연구진은 이미지 생성 AI 모델이 수십억 개의 샘플로 학습했기 때문에, 대규모로 오염된 샘플을 훈련에 활용하는 경우가 아니라면 즉각적인 큰 피해를 입지 않을 것이라고 설명했습니다.

 

예술가들의 입장 : 없는 것보다 있는 게 낫다!

이 연구는 AI 모델의 취약점과 아티스트들의 저작권 보호의 중요성을 강조하고 있습니다. 이러한 도구들의 등장으로 아티스트들은 온라인에 자신들의 작품을 안심하고 다시 게시할 수 있게 되었다고 전합니다.

예술가들은 이러한 변화를 적극적으로 환영하고 있습니다. 화가인 오텀 비벌리는 "이제 우리의 동의 없이 작업을 활용하는 AI 회사들은 전체 모델을 파괴할 수 있는 가능성이 있기 때문에 다시 고민해야 할 것"이라며 나이트쉐이드와 글레이즈 덕분에 작품을 안심하고 다시 온라인에 공유할 수 있는 자신감을 얻었다는 입장입니다.

 

반응형