이거 AI가 그린 거 아니야?

사진 설명 시작. 두 개의 유사한 인물 초상화가 나란히 놓여 있다. 두 그림 모두 남성이 입술에 손가락을 대고 ‘쉿’ 제스처를 하고 있으며, 얼굴이 다채로운 원색으로 표현되어 있다. 왼쪽 그림은 AI가 생성한 작품이고, 오른쪽은 화가 artmix2ra가 그린 것이다. 하단에는 ‘Question #12/12 – Which piece was made by a human?’이라는 문구가 표시되어 있다. 사진 설명 끝.

분명히 제가 그린 그림인데 AI라고 의심받았어요. 직접 그렸다는 걸 어떻게 증명하죠?

생성형 AI* 기술이 빠르게 발전하면서, AI 생성물은 인간의 손끝에서 나온 작품과 거의 구별되지 않는다. 그 결과 인간이 정성껏 작업한 창작물이 생성형 AI가 만든 것으로 오해받는 사례가 늘고 있다. AI로 의심받은 창작자는 억울함을 호소한다. 기술의 진보 속에서 창작자와 소비자 간 신뢰가 상해가는 지금, 어떤 대책이 필요할까?

*생성형 AI: 방대한 양의 학습데이터를 바탕으로, 텍스트·이미지·코드 등 새로운 콘텐츠를 생성하는 인공지능

‘내가’ 그린 그림에 ‘AI’라는 손가락질

9월 18일, 인기 웹소설 『괴담에 떨어져도 출근을 해야 하는구나(괴담출근)』 팝업스토어 홍보 영상이 ‘AI 논란’에 휩싸였다. 누리꾼들이 영상에 사용된 삽화가 생성형 AI 이미지가 아니냐는 의혹을 제기한 것이다.

의혹의 근거는 삽화 속 인물의 귀와 손가락 형태가 어색하다는 점이었다. 이는 이미지를 생성할 때 ‘AI가 자주 하는 실수’라는 것이다. 일부는 삽화가의 엑스에 ‘정말 AI를 쓰지 않았느냐’며 추궁하는 댓글을 남겼고, 팝업스토어 운영사인 KW북스에 해명을 요구하는 해시태그 집단행동도 벌어졌다. KW북스는 즉각 해명에 나서 의혹을 부인했으나, 이후에도 일부 소비자는 ‘해명만으로는 믿을 수 없다’며 팝업 행사 표를 취소하고 비판을 이어갔다.

해당 논란은 많은 소비자가 AI 생성 콘텐츠를 부정적으로 인식하고 있음을 보여준다. 소비자들의 이러한 태도는 게임, 웹소설, 웹툰 등 창작물을 중심으로 이뤄지는 문화콘텐츠 산업 전반에 퍼져있다.

소비자들이 AI에 거부감을 갖는 이유는 다양하다. 우선 생성형 AI가 아직 저작권 문제를 말끔히 해결하지 못했으며, 인간 창작자의 입지를 위협한다는 점을 들 수 있다. 또 AI 창작물에서 진정성이 느껴지지 않는다거나, AI가 인간 고유의 영역인 창의성을 침범한다고 생각해 소비를 꺼리기도 한다.

문제는 AI를 사용하지 않는 창작자들마저 불필요한 오해에 시달린다는 점이다. 커미션* 중개 플랫폼 ‘크레페’에서 삽화가로 활동 중인 A씨는, 어느 날 작업물이 AI 이미지로 의심된다는 신고에 해명을 요구받았다. A씨는 증명을 위해 작업 과정이 보존된 원본 파일을 수차례 공개해야 했다. 의혹이 해소되지 않으면 AI에 거부감을 가진 소비자들의 의뢰가 끊길 수 있기 때문이다.

*커미션(commission): 구매자의 의뢰를 받고 맞춤으로 창작물을 제작하는 행위

A씨는 오해를 풀기 위해 “작업 과정의 1부터 10까지 전부 공개해야 했다”며, “시간을 들여 결백을 증명해야 한다는 점에서 스트레스를 받았다”고 말했다. 이처럼 창작자는 시간과 비용을 들여 의혹을 해명하는 과정에서 정신적 피해를 입는다.

AI 생성물과 인간 창작물, 구별할 수 없어

소비자들은 대개 AI 그림의 제한적인 화풍을 근거로 AI 사용을 의심한다. 『괴담출근』의 경우, 누리꾼들은 ‘셔츠의 옷깃 부분이 어색하다’, ‘손가락 마디 수가 이상하다’ 같은 이유를 들었다. 복잡한 형태의 그림에서 오류가 발생하는 것은 생성형 AI 등장 초기 자주 나타난 ‘실수’다.

사진 설명 시작. 초록빛 머리카락과 붉은 체크무늬 옷을 입은 여성형 캐릭터 일러스트 위에, AI 그림의 특징을 설명하는 주석이 파란 글씨로 표시되어 있다. 주석은 머리카락의 비정상적인 고리 모양, 손가락의 길이나 위치 오류, 리본의 연결 문제, 번진 세부 묘사, 팔의 잘못된 관절 처리 등 AI가 생성한 그림에서 흔히 나타나는 오류들을 지적하고 있다. 사진 설명 끝.

그러나 이는 설득력 있는 근거라고 보기 어렵다. 인간도 AI와 비슷한 실수를 할 수 있고, 어색하다고 여겨지는 부분이 작가의 개성이거나 의도적인 연출일 수 있기 때문이다. KW북스는 AI로 의심받은 부분이 ‘움직임을 부여하는 과정에서 발생한 기술적 표현’ 때문이라고 설명했다.

요즘 AI 작품엔 뚜렷한 시각적 특징이 드러나지 않아 구별이 어렵다. 올해 9월 바르샤바 공과대학에서 공개한 연구에 따르면, 전문가조차 AI가 생성한 작품과 인간이 창작한 작품을 제대로 구별하지 못한다. 연구진은 실험 참가자들에게 이미지를 제시하고 AI가 그린 그림인지 판단하도록 했다. 그 결과, 정답률은 46.4%로, 무작위로 골랐을 때 답을 맞힐 확률인 50%보다 낮았다. 판단 근거를 묻자 참가자들은 ‘이상적이다’, ‘혼란스럽다’, ‘창의적이지 않다’ 등 주관적인 기준을 댔다.

AI 그림과 인간 창작물을 명확히 구별하기 어려운 만큼, 소비자들이 제시하는 의심의 근거 역시 자의적이다. 그렇기에 많은 AI 논란은 그저 의혹 제기에 그치며, 해명할 책임만이 창작자에게 떠넘겨진다.

‘직접 창작’ 증명이 어려운 이유

AI 사용 여부를 증명하기는 쉽지 않다. 지금까지 AI라고 의심받은 창작자들은 작업물의 원본 파일이나 작업 과정 영상을 공개했다. 원본 파일에 레이어 정보가 남아있어 창작 과정을 확인할 수 있기 때문이다. AI 그림은 명령어를 입력하면 이미지를 바로 생성하기에, 스케치나 선화와 같은 밑작업이나 보정 전 단계의 흔적이 없다.

그러나 창작자가 매번 작업 과정을 영상으로 녹화하거나, 모든 세부 파일을 보존하기는 현실적으로 어렵다. A씨는 보통 레이어를 합치면서 작업해서, 레이어 정보로 작업 과정을 증명하기 어렵다고 설명한다. 또 특별한 이유가 없다면 작업 과정을 녹화하지 않는다. 이 때문에 A씨는 “직접 그렸다고 증명할 자료가 부족할까 봐 걱정했다”고 말했다. AI를 사용하지 않았음에도, 해명할 자료가 부족해 의심받을 가능성이 있는 것이다.

심지어 이제는 작업 과정 공개조차 완전한 해명을 담보하지 못한다. 작업 과정을 조작하는 AI가 등장했기 때문이다. 생성형 AI ‘페인츠-언두(Paints-Undo)’는 이미지를 입력하면, 그림이 그려지는 과정을 영상으로 생성한다. 원본 파일이나 작업 영상만으론 ‘AI를 쓰지 않았다’는 사실을 증명하기 어려워진 것이다.

사진 설명 시작. AI로 생성된 일러스트 작업 과정이 단계별로 나타나 있다. 두 행으로 이루어져 있으며, 위쪽 행에는 연필 스케치 단계로, 처음에는 희미한 윤곽선에서 점차 세부 묘사와 명암이 추가되며 캐릭터의 형태가 뚜렷해진다. 아래쪽 행에는 채색 과정이 이어지며, 주황빛 머리와 녹색 눈을 가진 여우 수인 캐릭터가 점점 완성된다. 마지막 단계에서는 배경이 하늘색으로 채워지고, 캐릭터의 질감과 조명이 정교하게 표현되어 완성된 일러스트가 된다. 사진 설명 끝.

작업 과정을 공개해도 AI로 조작했냐며 의심받는다. 커미션 활동을 하는 B씨는 “해명을 위해 작업 화면을 녹화한 영상을 공개했지만, 스케치 단계에서 불명확하게 그려진 부분 때문에 조작된 영상 같다는 의심을 받았다”고 말했다. B씨는 “작업 과정을 공개해도 의혹이 해결되지 않아 해명을 포기했다”고 토로했다.

AI 콘텐츠 표기 의무화, 해결책 될 수 있을까

소비자는 명확한 증거 없이 AI 사용을 의심하고, 창작자는 증명의 부담에 시달린다. 계속되는 혼란을 막으려면 AI 사용 여부를 확인할 수 있는 제도가 필요하다. 현재 AI 생성물에 대한 출처 표시는 의무가 아니며, 상업적 이용에 관한 명확한 지침도 없기 때문이다.

2026년 1월 시행 예정인 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)’이 전환점이 될 것으로 보인다. 해당 법안은 AI가 생성한 텍스트·이미지·오디오·영상 등에 AI 사용 표기를 의무화하는 조항을 담고 있다. AI 생성물을 인간 창작물로 오인하지 않도록 하기 위함이다.

그러나 시행 방식에 대해선 신중해야 한다는 지적이 나온다. 특히 ‘AI 마크’를 표기하는 위치와 방식이 관건이다. AI 사용 여부를 전면에 밝히면 소비자가 콘텐츠를 접하기도 전에 거부감을 느껴 이용자 경험을 저해할 수 있다. 마크가 표기되는 방식에 따라, AI를 활용하는 콘텐츠 산업과 창작 활동이 위축될 위험이 있는 것이다.

시행 범위 문제도 있다. 활용 방식이 다양한 만큼 AI 콘텐츠라고 판단하기 애매한 경우가 많기 때문이다. 가령 ▲이미지 일부분만 AI로 제작한 경우 ▲창작 마지막 단계에서 AI 보정을 진행한 경우 ▲AI 이미지를 가공해 작품을 완성한 경우 등을 모두 같은 AI 콘텐츠로 표기하기는 곤란하다.

현장에서는 AI기본법 제정에 동의하지만, 보다 근본적인 창작자 보호를 위한 후속 입법이 필요하다고 본다. AI기본법은 AI 콘텐츠가 인간 창작물로 오인되는 것을 막을 뿐, AI 콘텐츠 제작 과정에서의 학습데이터 저작권 침해를 막지 못하기 때문이다. 창작자들의 요구 중 하나는 ‘AI 학습데이터 공개 의무화’다. 현재까지 생성형 AI는 웹상에 공개된 창작물을 허가 없이 이용하고 내역을 공개하지 않았다. 명확한 법적 기준이 없는 탓에 창작자는 자신의 작업물이 AI 학습데이터로 활용되는 것을 막을 수 없었는데, 이제는 이를 방지하자는 것이다.

프리랜서 삽화가 C씨는 화풍이 ‘AI 같다’는 이유로 AI로 오해받는 창작자들이 있다고 지적한다. 이에 대해 C씨는 “그건 AI가 기존 창작자들 화풍을 학습한 결과”라고 진단하며, “원저작자가 거꾸로 피해를 봐서 문제”라고 말했다. 그는 “AI가 학습한 데이터를 공개하고 저작권자 허락을 의무화해 창작자의 권리를 지켜야 한다”고 주장한다.

다만 이는 AI 사업자 측 의견과 엇갈린다. 5월 7일 발표된 국회입법조사처 보고서*에 따르면, 사업자 측은 데이터 공개가 영업비밀 노출과 경쟁력 상실로 이어져 산업 발전을 저해한다고 반박한다. *백지연, 「생성형 AI의 학습데이터 공개 관련 논의와 입법 과제」, 2025.

이처럼 AI 표기 제도 관련 논의는 창작자 권리 보호와 산업 발전 간의 이해관계가 맞물려 있기에 균형 있는 접근이 필요하다. 산업 전반의 신뢰를 강화하기 위한 제도적 장치 마련이 앞으로의 핵심 과제가 될 것으로 보인다.

생성형 AI의 발전으로, 인간의 작품마저 진정성을 의심받는 사례가 늘고 있다. 이러한 혼란은 빠르게 발전하는 AI 기술 수준에 비해, 그를 뒷받침할 제도가 충분히 갖춰지지 않은 간극에서 비롯됐다. 피해가 적지 않은 만큼 이제는 창작자의 안전한 예술 활동과 소비자의 투명한 콘텐츠 소비를 위한 변화가 필요하다.

댓글 댓글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

이전 기사

“여기 동물 약도 있어요?”

다음 기사

팔레스타인에서 온 통신