AI 기반 애플리케이션을 보여주는 모바일 폰의 클로즈업

워터마킹이 곧 여러분 근처의 AI 챗봇에 적용될 수 있습니다. 출처: Jonathan Raa/NurPhoto/Getty

연구 세계에서 갑자기 대중의 의식 속으로, 그리고 생성AI만큼 널리 사용되는 도구나 기술은 드뭅니다. 대규모 언어 모델(LLM)이 인간이 만든 것과 거의 구별할 수 없는 텍스트와 이미지를 만드는 능력은 수많은 인간 활동 분야를 파괴하고, 혁신하고 있습니다. 그러나 학술적 표절에서 대량의 잘못된 정보 생성에 이르기까지 오용의 가능성은 이미 분명합니다. AI가 너무 빠르게 발전하고 있어서 보호 레일이 없다면 정확성을 보장하고 피해를 줄이기에는 곧 너무 늦을 수 있다는 우려가 있습니다. 1 .

 

이번 주에 런던에 있는 구글의 AI 연구실인 DeepMind의 Sumanth Dathathri와 그의 동료들은 텍스트의 출처를 인증하는 데 사용할 수 있는 디지털 식별자의 한 형태인 '통계적 서명'을 내장하여 AI가 생성한 텍스트에 '워터마킹'하는 새로운 접근 방식을 테스트했다고 보고했습니다 .2 워터마크라는 단어는 종이와 인쇄 시대에서 유래되었으며, 육안으로는 즉시 눈에 띄지 않지만 인쇄된 텍스트를 변경하지 않는 종이 두께의 변화를 설명합니다. 디지털로 생성된 텍스트나 이미지의 워터마크는 사용자에게는 비슷하게 보이지 않아야 하지만 전문 소프트웨어에서는 즉시 눈에 띄어야 합니다.

 

Dathathri와 그의 동료들의 연구는 디지털 텍스트 워터마킹에 중요한 이정표를 나타냅니다. 하지만 기업과 규제 기관이 텍스트가 인간의 제품인지 기계의 제품인지 확신을 가지고 말할 수 있기까지는 아직 갈 길이 있습니다. AI로 인한 피해를 줄이는 것이 필수적이므로, 더 많은 연구자들이 나서서 워터마킹 기술이 약속을 이행하도록 해야 합니다.

 

저자가 LLM 출력에 워터마킹을 하는 접근 방식은 새로운 것이 아닙니다. 캘리포니아주 샌프란시스코에 있는 ChatGPT의 모회사인 OpenAI에서도 이의 한 버전을 테스트하고 있습니다. 하지만 이 기술이 어떻게 작동하는지, 강점과 한계에 대한 문헌은 제한적입니다. 가장 중요한 기여 중 하나는 2022년에 텍사스 ​​오스틴 대학교의 컴퓨터 과학자인 스콧 아론슨이 많은 논의가 있었던 강연 에서 워터마킹을 어떻게 달성할 수 있는지 설명했을 때였습니다. 다른 사람들도 가치 있는 기여를 했는데, 그중에는 작년에 워터마크 감지 알고리즘을 발표한 메릴랜드 대학교 칼리지 파크의 존 키르헨바우어와 그의 동료들이 있습니다 3 .

 

DeepMind 팀은 더 나아가 워터마킹이 대규모로 구현될 수 있음을 보여주었습니다. 연구원들은 SynthID-Text라고 부르는 기술을 Google의 AI 기반 챗봇 Gemini에 통합했습니다. 챗봇에 쿼리를 입력한 거의 2,000만 명의 Gemini 사용자를 대상으로 한 실시간 실험에서 사람들은 워터마킹이 없는 응답과 비교했을 때 워터마킹이 있는 응답의 품질이 떨어지는 것을 알아차리지 못했습니다. 이는 중요한데, 사용자는 워터마킹이 없는 텍스트보다 열등하다고 생각하면 워터마킹이 있는 콘텐츠를 받아들이지 않을 가능성이 높기 때문입니다.

 

그러나 결심한 개인이 워터마크를 제거하고 AI가 생성한 텍스트를 사람이 쓴 것처럼 보이게 하는 것은 여전히 ​​비교적 쉽습니다. 이는 DeepMind의 실험에서 사용된 워터마킹 프로세스가 LLM이 통계적으로 '토큰'을 선택하는 방식을 미묘하게 변경하여 작동하기 때문입니다. 즉, 주어진 사용자 프롬프트에 직면하여 기사, 책 및 기타 출처에서 수십억 개의 단어로 구성된 방대한 학습 세트에서 끌어와 그럴듯하게 들리는 응답을 연결하는 방식입니다. 이러한 변경은 분석 알고리즘으로 발견할 수 있습니다. 그러나 신호를 제거할 수 있는 방법이 있습니다. 예를 들어 LLM의 출력을 의역하거나 번역하거나 다른 LLM에 다시 쓰도록 요청하는 것입니다. 그리고 워터마크를 제거한 후에는 실제로 워터마크가 아닙니다.

 

워터마킹을 올바르게 하는 것은 당국이 AI가 일으킬 수 있는 피해를 제한하는 방식으로 AI를 규제하기 위해 노력하고 있기 때문에 중요합니다. 워터마킹은 핵심 기술로 여겨집니다. 작년 10월, 조 바이든 미국 대통령은 메릴랜드주 게이더스버그에 있는 국립표준기술원(NIST)에 AI 시스템을 대중에게 공개하기 전에 엄격한 안전 테스트 표준을 설정하라고 지시했습니다. NIST는 워터마킹 사용을 포함하여 AI로 인한 피해 위험을 줄이기 위한 계획에 대한 대중의 의견을 구하고 있으며, 이는 강력해야 한다고 말합니다. 아직 계획이 언제 확정될지에 대한 확실한 날짜는 없습니다.

 

미국과 대조적으로 유럽 연합은 3월에 EU 인공지능법을 통과시키고 이를 시행하기 위한 AI 사무소를 설립하면서 입법적 접근 방식을 채택했습니다. 중국 정부는 이미 의무적 워터마킹을 도입했고, 캘리포니아주도 같은 것을 시도하고 있습니다.

그러나 기술적 장애물을 극복할 수 있다 하더라도 워터마킹은 기업과 사용자에게 수용 가능한 경우에만 진정으로 유용할 것입니다. 규제가 어느 정도 기업이 향후 몇 년 안에 조치를 취하도록 강요할 가능성이 있지만, 사용자가 워터마킹 및 이와 유사한 기술을 신뢰할지는 또 다른 문제입니다.

 

생성 AI의 오용을 막기 위한 향상된 기술 역량이 절실히 필요하며, 사람들이 이러한 도구와 상호 작용하는 방식, 즉 악의적인 행위자가 AI를 사용하는 방식, 사용자가 워터마킹을 신뢰하는지 여부, 생성 AI 영역에서 신뢰할 수 있는 정보 환경이 어떤 모습인지를 이해해야 합니다. 이는 모두 연구자들이 연구해야 할 질문입니다.

 

환영할 만한 움직임으로, DeepMind는 SynthID-Text의 모델과 기본 코드를 누구나 사용할 수 있도록 무료로 제공했습니다. 이 작업은 중요한 진전이지만, 기술 자체는 아직 초기 단계입니다. 우리는 그것이 빠르게 성장해야 합니다.