top of page

AI 제작 콘텐츠 홍수에 대처하고, 의미있게 상호작용하기

One Day Discovery를 소개합니다!

CIT (Companoid Institute of Technology)원데이 칼리지(One Day College) 프로그램인 원데이 디스커버리(One Day Discovery, ODD)는 인간과 기술, 그리고 사용자가 경험하게 될 미래에 대한 생각과 관점을 모더레이터들과 함께 나누는 원데이 디스커버리 프로그램입니다. 가벼운 마음으로 최근 화두, 새로운 기술과 사회에 대한 지식을 얻어가고, 다른 사람들과 주제에 대해 논의하며 생각을 넓혀보세요!
 

안녕하세요, 컴패노이드 랩스 윤형근 파트너입니다. 


저는 최근에 Companoid Labs의 사내독립법인(CIC)인 CIT (Companoid Institute of Technology)에서 새롭게 런칭한 원데이 칼리지(One Day College, ODC) 프로그램에서 <AI 제작 콘텐츠 홍수에 대처하고, 의미있게 상호작용하기>라는 주제로 원데이 디스커버리(One Day Discovery, ODD) 프로그램을 모더레이로서 총 4회에 걸쳐 진행했습니다. 해당 ODD 프로그램에서는 모더레이터의 주제에 대한 이슈와 관련 연구 소개 뿐만 아니라 참가자 분들의 열띤 토의를 통해 의미있는 이야기를 나누었습니다. 오늘 Spotlight 포스트에서는 4번에 걸쳐 진행한 ODD에서 논의된 핵심을 정리하여 소개하고자 합니다.


ODD <AI 제작 콘텐츠 홍수에 대처하고, 의미있게 상호작용하기>에서 토의 중인 윤형근 파트너와 참가자들
ODD <AI 제작 콘텐츠 홍수에 대처하고, 의미있게 상호작용하기>에서 토의 중인 윤형근 파트너와 참가자들

ODD에서는 어떤 논의가 이루어졌나요?


최근 생성형 AI의 눈부신 발전 덕분에 우리는 다양한 생성형 AI 서비스를 일상에서 만나고 있습니다. 그리고, 이러한 서비스를 통해 실제 텍스트를 작성하고, 이미지를 제작하며, 더 나아가 음악이나 영상을 제작하기도 합니다.


하지만 생성형 AI 콘텐츠가 넘쳐나면서 인터넷과 소셜미디어는 AI가 제작한 콘텐츠 홍수의 늪에 빠졌습니다. AI가 제작한 콘텐츠는 유용하고 유익한 정보를 전달할 수 있지만, 때로는 불필요하거나 불확실하고, 의미 없는 콘텐츠를 제작하기도 합니다. 이러한 AI로 제작한 콘텐츠를 구분하는 방법은 여전히 과제로 남아있는 상황입니다.


그래서 이번 ODD에서는 4회에 걸쳐 이러한 AI 제작 콘텐츠를 구분하고, 생성형 AI를 활용하여 인터넷과 더 효과적으로 사용하는 사용자 관점의 전략과 방법에 대해 알아보았습니다. ODD를 통해서 생성형 AI가 제작하는 콘텐츠의 특징과 활용 방안 뿐만 아니라 이러한 콘텐츠를 판별하는 방법에 대한 힌트, 그리고 의미있게 활용하는 방법에 대해 논의해 볼 수 있었습니다.


AI가 생성한 콘텐츠의 특징은 무엇이고, 사람들은 어떻게 바라볼까?


먼저, 생성형 AI에 대해 알아보겠습니다. 생성형 AI는 AI 모델이 학습한 데이터의 확률 분포를 기반으로 새로운 형태의 콘텐츠를 생성하는 모든 유형의 인공지능을 의미합니다. 생성형 AI에 대한 연구는 예전부터 이어졌지만, 사용자가 직접적으로 생성형 AI 서비스를 활용하게 된 계기는 2022년에 이루어진 OpenAI의 ChatGPT의 등장이었습니다. ChatGPT라는 사용자 대상 서비스와 채팅 인터페이스를 통해 실제 사용자가 생기면서, 비로소 생성형 AI의 능력을 체감할 수 있게 되었습니다.


프롬프트 엔지니어링과 Midjourney와의 여러 차례 상호작용을 통해 제작된 ODD의 메인 이미지
프롬프트 엔지니어링과 Midjourney와의 여러 차례의 상호작용을 통해 제작된 ODD의 메인 이미지

생성형 AI는 오늘날 텍스트, 이미지, 영상, 오디오 등 다양한 형태의 콘텐츠를 생성할 수 있습니다. 그리고, 생성형 AI 서비스의 등장과 함께 생성형 AI는 다양한 특징을 보이고 있습니다. 그 중 가장 큰 특징은 프롬프트 엔지니어링(Prompt Engineering)이라는 개념의 등장입니다. 대부분의 생성형 AI 서비스가 사용자의 텍스트 기반 명령과 프롬프트로부터 새로운 콘텐츠를 제작하기 때문에, 프롬프트에 따른 콘텐츠의 퀄리티 차이가 발생하게 되었고, 이를 잘 디자인하는 방법에 대한 논의가 이루어지며 해당 개념이 등장하게 되었습니다. 이는 개인의 상호작용 방법에 따라 콘텐츠의 퀄리티 차이가 발생하는 역할을 하게 되었습니다. 또 다른 특징 중 하나는 생성형 AI를 통해 다른 톤, 형태, 느낌의 콘텐츠를 생성할 수 있다는 것입니다. 우리는 실제로 다른 형태의 톤과 형태를 가진 텍스트, 다양한 스타일 및 화풍에 따른 이미지 생성이 가능하며, 더 나아가 실제 없었던 일이나 일어나기 힘든 일을 텍스트나 이미지 형태로 표현할 수 있습니다. 이는 우리의 상상력과 표현력을 극대화시켰지만, 이로 인해 윤리적 문제, 할루시네이션(Hallucination) 문제 등도 발생했습니다.  마지막으로 생성형 AI가 아직 어려워하는 태스크도 있습니다. 가령 숫자나 소숫점 비교에서 잘못된 값을 생성하거나, 손과 같이 디테일한 부분을 이미지로 표현하는데 어려움이 있습니다. 특히 비디오와 같이 더 고차원의 콘텐츠의 경우에는 이러한 물리적 상호작용이 어색하다는 문제가 있어서, 여전히 콘텐츠의 퀄리티 측면에서는 개선할 점이 남아있습니다.


그렇다면 생성형 AI가 제작한 콘텐츠를 사람들은 어떤 인식으로 바라볼까요? 한 연구에서는 인간이 제작한 뉴스와 AI가 제작한 뉴스에 대한 독자의 인식 수준을 확인해보았는데, 두 뉴스 사이의 신뢰성과 전문성, 가독성에 차이가 없었습니다 [1]. 더 나아가 AI가 제작한 뉴스에 호기심을 보이는 사람들도 있었습니다. 이는 AI가 제작한 뉴스 콘텐츠의 퀄리티가 인간 수준으로 올라왔고, 오히려 인간의 흥미를 불러올 수 있다는 것을 보여주었습니다. 또한, 소셜미디어 속에서 생성형 AI가 제작한 콘텐츠에 대한 사용자의 인식을 분석해본 연구도 있었는데, 실제로 43명의 사용자를 대상으로 생성형 AI, 인플루언서, 일반인 올린 예술 작품 콘텐츠에 대한 인식을 비교해보니, 사용자들이 일반인의 콘텐츠보다 AI와 인플루언서가 올린 콘텐츠를 더 매력적으로 평가하였습니다 [2]. 이 또한, 생성형 AI가 제작한 콘텐츠가 큰 흥미를 불러일으킬 수 있다는 것을 보여주었습니다. 이처럼 생성형 AI가 제작한 콘텐츠의 퀄리티가 상승하면서, 많은 사람들이 이에 대해 긍정적으로 인식하는 경향이 높아지고 있다는 것을 알 수 있었습니다.


이에 대해 ODD 참가하신 분들의 의견도 들을 수 있었습니다. 참가자 중 한 분은 생성형 AI가 기존에 있던 콘텐츠를 제작하던 방법 중에 새롭게 추가된 방법이라고 생각한다며, 기존에 표현하기 어려운 장면이나 이미지를 표현시켜 아이디어를 구체화 시키는데 도움을 줄 수 있다고 말씀하셨습니다. 또 다른 분은 생성형 AI를 잘 사용하기 위해서는 분석을 잘하는 것이 유리할 것이라고 말씀하시면서, 이러한 콘텐츠가 늘어나다보면 오히려 양질의 콘텐츠를 전달해주는 새로운 플랫폼이 등장할 수 있다고 말씀해주셨습니다. 특히, 인상깊은 의견 중 하나는 생성형 AI가 사회적 소수자가 자신의 사고를 더 확장하고, 표현하는데 도움이 될 수 있다는 의견이었는데, 자연어를 통해서 자신의 생각을 눈에 보이는 형태로 표현할 수 있는 만큼, 생성형 AI가 포용성을 갖춘 기술로 발전할 수 있다는 생각을 말씀해주셔서 공감이 되었습니다. 전체적으로 생성형 AI가 제작한 콘텐츠에 대해 긍정적이었으며, 자신이 표현하기 어려운 것을 표현하는 수단으로 발전할 수 있다는 의견이 나왔습니다.


AI가 제작한 콘텐츠를 판별하는 전략은 무엇이고, 이를 고려한 Next CAPTCHA 기술은 어떤 형태일까?


그렇다면, 퀄리티가 보장되지 않는 AI 제작 콘텐츠를 판별할 수 있을까요? 먼저, 이를 해결하기 위한 많은 기술적인 방법이 등장했지만 여전히 어려움이 많습니다. 대표적으로 OpenAI에서 출시했던 AI Text Classifier가 있습니다. 해당 기술은 AI가 작성한 텍스트를 구분하기 위한 텍스트 감지 도구였는데, 현재는 정확도 등의 한계로 인해 운영하고 있지 않습니다. 특히, 이러한 GPT를 탐지하는 도구들은 비원어민 화자가 쓴 글을 AI가 쓴 글이라고 판단할 가능성이 높다는 연구 결과가 있어, 오히려 차별이나 편향을 강화시킬 수 있다는 문제가 있었습니다 [3]. 뉴욕 타임즈(New York Times)는 AI 이미지 탐지 도구를 대상으로 얼마나 잘 탐지하는지 실험을 진행하였습니다 [4]. 실험 결과, AI 탐지도구는 보통 이미지의 픽셀 값을 감지하여 탐지하는 경우가 많고, 이미지의 맥락을 고려하지 않고 판단하는 경우가 대다수의 방법이었습니다. 이로 인해 픽셀값의 변경과 같이 이를 탐지할 수 있는 디지털 시그널이 감소하는 경우에 탐지 정확도가 감소하는 경향이 존재했습니다.


이처럼 기술적인 방법에는 AI가 생성하거나 제작한 콘텐츠를 탐지하는데 어려움이 많았습니다. 그렇다면, 인간은 AI가 생성하거나 제작한 콘텐츠를 탐지할 수 있을까요? 개인적으로는 소셜미디어 등에서 AI가 제작한 콘텐츠를 많이 봤는데, 이걸 보며 인간의 직관으로 충분히 판단할 수 있다는 생각이 있었습니다. 하지만, 실제로 이를 탐구한 연구에서는 그렇지 않았습니다. 4600명의 사용자를 대상으로 AI가 생성한 텍스트를 탐지하는 능력을 평가한 결과, 이들의 탐지 정확도는 약 50% 수준에 머물렀으며, 금전적 보상이나 탐지에 대한 피드백을 제공했음에도 정확도가 크게 개선되지 않았다고 합니다 [5]. 이는 인간이 잘못된 휴리스틱(Heuristic)과 직관을 통해 AI가 생성한 텍스트를 판단하기 때문인 것으로 보이는데, 가령 개인적 경험이나 가족이 포함되면 인간이 작성한 것으로 판단하고, 문법적 오류가 없고 1인칭 대명사를 사용하면 인간이 작성한 것으로 판단하는 등의 기준입니다. 참가자들의 관계 없이 이러한 전략이 일관되게 나타났는데, 이를 보면 사람들이 대부분 잘못된 직관으로 이를 판단하였음을 보여줍니다. 결국 AI가 생성한 콘텐츠를 판단하는 사용자의 기준이 일반적으로 AI의 오류나 한계에 기대고 있는데, 현재의 생성형 AI를 그걸 넘어선 콘텐츠를 제작하고 있기 때문에 새로운 판단 기준이 필요하다는 것을 알 수 있습니다.


AI가 제작한 텍스트를 판단할 때 인간의 잘못된 휴리스틱 (Heuristic) 목록


1. 콘텐츠와 관련한 휴리스틱

  • 개인적인 경험이나 가족에 대한 이야기가 포함되면 인간이 작성한 것으로 판단한다.

2. 문법과 관련한 휴리스틱

  • 1인칭 대명사를 사용하거나 문법적 오류가 없는 경우에 인간이 작성한 것으로 판단한다.

3. 톤 및 스타일과 관련한 휴리스틱

  • 따뜻하고 진정성이 있는 표현의 경우 인간이 작성한 것으로 판단한다.

4. 글의 형식과 관련한 휴리스틱

  • 긴 단어 및 희귀한 단어 조합이 없거나, 축약어를 사용하면 인간이 작성한 것으로 판단한다.


이와 관련해 ODD 참가자 분들에게도 이를 판별할 수 있는 전략에 대해 의견을 나눴습니다. 실제로 AI 생성 콘텐츠의 특징을 알고 메커니즘을 아는 경우에는 이를 판단할 수 있지만, 그렇지 않은 경우에는 어려움이 있다는 의견이 있어 많은 분들이 여전히 어려움을 느끼고 있음을 알 수 있었습니다. 다만, 어려움에도 불구하고 몇가지 전략을 제시했습니다. AI가 제작한 이미지의 경우에는 사진의 초점이나 디테일 묘사를 살펴보는 방법과 특유의 그림체를 살펴보는 방법이 있었습니다. AI가 생성한 텍스트의 경우에는 맥락이 없는 정보나 일반화가 많이 된 정보를 활용하여 판단하는 방법이 있었습니다. 이렇듯 여러 방법이 제시되었지만, 여전히 명확한 방법은 없다는 의견을 나눴습니다. 그래서 사용자가 항상 어떤 콘텐츠를 볼 때 항상 주의 깊게 살펴보는 습관이 필요하다는 것을 알 수 있었습니다. 그리고, 이를 구분할 수 있는 워터마크를 삽입하는 방법, 인간이 제작했음을 인증하는 제도 등의 필요성을 확인할 수 있습니다.


실제로 워터마크와 같은 방법은 현재 가장 많이 주목 받고 있고, 연구하고 있는 AI 제작 콘텐츠를 탐지하는 방법 중 하나입니다. 워터마크 방법은 사람에게 보이지 않지만 기계나 프로그램을 확인할 수 있는 디지털 신호를 AI 제작 콘텐츠에 삽입하여 이를 구분하는 방법입니다. 텍스트, 이미지, 오디오 등 콘텐츠의 종류에 따라 삽입하는 신호의 형태는 달라질 수 있습니다. 여러 빅테크 기업에서 이에 대한 연구가 활발히 일어나고 있는데, 대표적으로 구글 딥마인드에서는 최근 SynthID라는 워터마크 삽입 기술을 개발했다고 발표했습니다. 이 기술은 구글의 생성형 AI가 제작하는 텍스트, 오디오, 이미지, 비디오 등 다양한 종류의 콘텐츠의 품질을 해치지 않으면서 워터마크를 삽입할 수 있고, 수정 등이 있을 때도 이를 감지하여 AI 제작 콘텐츠 여부를 판단할 수 있었습니다. 다만, 워터마크 탐지를 회피하는 방법이 여전히 존재하기 때문에, 과연 이러한 회피 방법에 대응할 수 있을지는 여전히 더 탐구가 필요합니다. 그럼에도 불구하고, 구글 뿐만 아니라 여러 테크 기업들이 관련 기술을 연구하고 있어, 앞으로도 워터마크 삽입과 관련된 방법이 발전할 것이라 생각합니다.


워터마크 기반 탐지 방법을 보다보니, 인간의 지식과 능력을 활용하는 기술적인 방법이 있지 않을까라는 생각이 들었고, 다음 세대의 CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) 방법에 대한 고민이 들었습니다. CAPTCHA는 듀오링고(Duolingo)의 창립자이자 HCI 연구자인 루이스 폰 안(Luis von Ahn)이 고안한 웹사이트에서 사람과 봇을 구별하기 위하여 사용하는 프로그램입니다 [6]. 실제로 많은 분들이 ‘사람이 아닙니다.’나 ‘도로 표지판이 있는 타일을 모두 선택하세요.’와 같은 인증 사례를 보셨을텐데, 이러한 인증 프로그램이 모두 CAPTCHA라고 생각하시면 됩니다. CAPTCHA의 기본적인 원리는 봇은 해결하기 어려우나 사람은 쉽게 해결할 수 있는 텍스트와 이미지를 활용하여 사람과 봇을 구분하는 것인데, 이는 인간과 기계를 구분하는 프로그램이라는 점에서 큰 의미가 있습니다. 더 나아가, CAPTCHA 방법 중 하나인 reCAPTCHA의 경우 사용자들이 CAPTCHA에 쓰이는 시간을 OCR 등의 기술로 판별하기 어려운 고문서의 문자를 해독하는데 사용했습니다. 현재도 우리가 많이 해결하는 ‘도로 표지판이 있는 타일을 선택하세요.’와 같은 reCAPTCHA 시스템은 자율주행 데이터셋 구축에 사용되고 있습니다. 이는 인간만이 풀 수 있는 문제를 크라우드소싱 방법을 통해 유용한 곳에 쓰였다는 점에서도 큰 의미가 있습니다.


(좌) 과거 고문서 해독에 사용된 reCAPTCHA, (우) 현재 버전의 reCAPTCHA


그렇다면 생성형 AI 시대의 CAPTCHA 기술은 무엇일까요? 이제 단순히 웹사이트에 접근하는 사람과 봇을 구별하는 것을 넘어, 웹사이트의 콘텐츠, 소셜미디어의 콘텐츠도 사람이 생성했는지, 봇이 생성했는지 판단할 필요성이 커지고 있습니다. 저는 ‘CAPTCHA처럼 인간의 지식과 능력을 활용해서 AI가 생성한 콘텐츠를 판단하는 방법이 있지 않을까’라는 생각과 ‘이러한 기술을 통해 인간이나 AI의 발전에 기여할 수 있는 방법이 있지 않을까’라는 생각이 들었습니다. 실제로 딥페이크 탐지를 위한 CAPTCHA 기술이나 실시간으로 대화 상대가 LLM인지 식별하는 연구가 있긴 했지만, 아직 이미 생성된 콘텐츠를 대상으로 한 연구는 많이 이뤄지지 않았습니다 [7]. 그래서, 앞으로 인간의 지식을 활용하여 AI가 생성한 콘텐츠를 탐지하고, 이를 통해 인류 및 AI 산업 발전에 기여할 수 있는 형태가 많이 이루어져야 한다는 생각이 들었습니다.


이와 관련하여서 ODD 참가자 분들과 역시 의견을 나눴습니다. 많은 분들이 AI가 제작한 콘텐츠를 구분하는 방법에 대해 고민을 해보긴 했지만, CAPTCHA와 같이 인류에게 기여하는 형태를 생각해보지는 못했다고 하셨습니다. 사람들이 공감하는 지식이나 문화적 특징을 활용하는 방법, AI가 자신이 AI임을 드러내는 트리거 장치를 부여하는 방법 등을 논의했습니다. 다만, 인간이 AI가 제작한 콘텐츠를 구분하는데 어려움이 있는 상황에서 명확한 방법을 도출하지는 못했습니다. 아무래도 현재의 기술적 한계, 인간의 직관이 정확하지 않다는 한계 속에서 다음 세대 CAPTCHA 기술에 대한 논의가 이뤄지기 어려울 수 있다는 생각이 들었습니다. 그래서, 앞으로 단순히 기술적 구분 방법 뿐만 아니라 인간이 구분하는 방법, 그리고 이를 활용하여 사회에 기여하는 방법도 논의가 되어야 한다는 의견을 나눴습니다.


AI를 활용하여 인터넷과 의미있게 상호작용 할 수 있는 방법은 무엇일까?


그렇다면, 우리는 AI가 제작한 콘텐츠가 넘쳐나는 시대에 어떻게 AI를 활용하여 인터넷, 소셜미디어, 웹과 의미있게 상호작용을 할 수 있을까요? 단순한 텍스트, 이미지, 오디오, 영상 제작 말고 무엇을 해볼 수 있을까요? 요즘은 단순한 콘텐츠 제작을 넘어서, 다양한 형태로 생성형 AI를 활용하는 서비스가 등장하고 있습니다. 구글 딥마인드에서는 3D 인터랙티브 콘텐츠, 게임 등을 실시간으로 제작할 수 있는 모델을 공개했고, Apple은 스마트폰의 다양한 애플리케이션과 상호작용할 수 있는 인공지능 에이전트인 Apple Intelligence를 소개했습니다. 더 나아가 Rewind AI와 같이 사용자가 디지털 환경 내에서 상호작용한 내용을 기억하고, 이를 기반으로 과거에 기록이나 상호작용에 대해 물어볼 수 있는 서비스도 등장하고 있습니다. 뿐만 아니라 생성형 AI에게 프로그래밍을 가르치며 관련 지식을 쌓는 연구 [8], 웹에서 생성형 AI가 사용자를 대신하여 상호작용하는 연구 [9] 등도 이루어지고 있습니다. 이처럼 단순한 콘텐츠 제작을 넘어서, 실제 디지털 세계, 상호작용할 수 있는 형태의 서비스와 연구를 많이 공개하는 상황입니다.


Generative Agents 연구에서 각 에이전트가 사회적 상호작용을 하는 예시
Generative Agents 연구에서 각 에이전트가 사회적 상호작용을 하는 예시, 논문 中

뿐만 아니라, 생성형 AI를 통해 우리 사회를 반영한 에이전트에 대한 연구도 나타나고 있습니다. 2023년에 큰 화두를 불러 왔던 Generative Agents 연구는 LLM을 통해 제작한 에이전트가 다른 에이전트와 상호작용이 가능하고, 사회적 행동과 관계를 형성할 수 있다는 것을 보여주었습니다 [10]. 더 나아가 Generative Agents 연구자들의 최신 연구에 따르면, 실제 사람의 태도와 행동 등을 묘사한 에이전트를 통해 사회과학 연구나 정책 입안을 위한 조사 등에 활용할 수 있음을 보여주었습니다 [11]. 구글 딥마인드에서 제작한 텍스트 기반 에이전트 상호작용 시뮬레이션 프레임워크인 Concordia의 경우에는 자연어를 통해 에이전트가 상호작용하는 세계를 구현하고, 이를 통해 다양한 사회적 상황을 시뮬레이션 할 수 있다는 것을 보여주었습니다 [12]. 앞으로 이런 연구가 계속되면, 나를 대신하여 웹이나 소셜미디어에서 상호작용하는 에이전트, 에이전트를 활용한 사용자 대상 평가, 에이전트를 활용한 사회 실험이 가능하겠다는 생각이 들었습니다. 


생성형 AI를 활용하여 단순한 콘텐츠 제작을 넘어, 실제 세계 및 디지털 세계와 더 효과적으로 상호작용하는 방법에 대해 많은 논의가 이루어지는 상황에서 어떻게 AI를 의미있게 사용할 수 있을지에 대해서도 참가자들과 논의를 진행했습니다. 생성형 AI가 적용될 수 있는 산업군이 굉장히 폭이 넓고, 인간을 모방한 에이전트의 경우에는 여론 조사 등에서도 적용되어 큰 비용 절감을 이룰 수 있다는 의견이 나왔습니다. 또한, 현재 생성 AI 기술이 이전에는 기술적으로 접근하기 어렵던 작업 및 태스크를 접근할 수 있게 만들었다는 점에서 기술 민주화를 이루었다는 이야기를 나눴습니다. 그래서, 단순히 생성 AI 기술을 배척하거나 오용하지 않고, 이를 통해 인사이트를 얻어 실제 자신의 일이나 작업에 응용하는 방식이 필요하다는 의견을 나눴습니다. 


사용자를 위해 상호작용하는 AI


지금까지 ODD <AI 제작 콘텐츠 홍수에 대처하고, 의미있게 상호작용하기>에서 논의된 내용을 기반으로 AI 제작 콘텐츠의 종류와 특징, 이를 구분하기 위한 기술적인 방법과 사용자 관점의 전략, 그리고 생성형 AI를 활용해 인터넷에서 효과적으로 상호작용하는 방법에 대해 알아보았습니다. 생성형 AI 콘텐츠의 특징을 기반으로 사용자가 AI를 구별할 수 있는 일부 전략이 있지만 아직 여전히 한계가 많고, 이러한 방법을 효과적으로 사용하기 위한 방법에 대한 논의가 앞으로도 필요하다는 것을 알 수 있었습니다. 또한, 단순히 콘텐츠 제작을 넘어서 인터넷 및 우리 사회와 상호작용하는 AI와 에이전트에 대해서도 생각해볼 수 있었습니다.


처음 ChatGPT가 공개된 이후, 우리는 AI의 콘텐츠 생성 및 제작 능력에 큰 관심을 보였고, 이는 지금까지 AI에 대한 기대와 혁신이 이어지는 큰 동력이 되었습니다. 하지만, 이제 많은 사람들이 AI가 제작한 콘텐츠를 넘어서 다른 형태의 상호작용 방식을 기대하고 있습니다. 앞으로는 단순히 콘텐츠를 얼마나 더 그럴듯하게 제작하는지가 아니라, 사용자가 디지털 세계와 상호작용할 때 어떠한 이점을 줄 수 있는지, 사용자가 가진 상호작용 문제를 해결할 수 있는지가 생성형 AI 기반 서비스의 핵심이 될 것이라 생각합니다. 따라서, 앞으로의 AI 기반 서비스는 단순히 성능 지표, 얼마나 자세하고 디테일한지를 넘어서 사용자를 위해 어떤 상호작용을 할 수 있는지를 중심으로 개발이 이루어져야 합니다. 그때 비로소 생성형 AI가 사용자의 삶의 변화를 일으킬 수 있습니다. 


 

References

[1] Gilardi, F., Di Lorenzo, S., Ezzaini, J., Santa, B., Streiff, B., Zurfluh, E., & Hoes, E. (2024). Disclosure of AI-Generated News Increases Engagement but Does Not Reduce Aversion, Despite Positive Quality Ratings. arXiv preprint arXiv:2409.03500.

[2] Park, J., Oh, C., & Kim, H. Y. (2024). AI vs. human-generated content and accounts on Instagram: User preferences, evaluations, and ethical considerations. Technology in Society, 79, 102705.

[3] Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7).

[4] Thompson, S. A., & Hsu, T. (2023, June 28). How to tell A.I.-generated images from the real ones. The New York Times. Retrieved from https://www.nytimes.com/interactive/2023/06/28/technology/ai-detection-midjourney-stable-diffusion-dalle.html

[5] Jakesch, M., Hancock, J. T., & Naaman, M. (2023). Human heuristics for AI-generated language are flawed. Proceedings of the National Academy of Sciences, 120(11), e2208839120.

[6] Von Ahn, L., Blum, M., Hopper, N. J., & Langford, J. (2003). CAPTCHA: Using hard AI problems for security. In Advances in Cryptology—EUROCRYPT 2003: International Conference on the Theory and Applications of Cryptographic Techniques, Warsaw, Poland, May 4–8, 2003 Proceedings 22 (pp. 294-311). Springer Berlin Heidelberg.

[7] Yasur, L., Frankovits, G., Grabovski, F. M., & Mirsky, Y. (2023, July). Deepfake captcha: a method for preventing fake calls. In Proceedings of the 2023 ACM Asia Conference on Computer and Communications Security (pp. 608-622).

[8] Jin, H., Lee, S., Shin, H., & Kim, J. (2024, May). Teach AI How to Code: Using Large Language Models as Teachable Agents for Programming Education. In Proceedings of the CHI Conference on Human Factors in Computing Systems (pp. 1-28).

[9] Abuelsaad, T., Akkil, D., Dey, P., Jagmohan, A., Vempaty, A., & Kokku, R. (2024). Agent-e: From autonomous web navigation to foundational design principles in agentic systems. arXiv preprint arXiv:2407.13032.

[10] Park, J. S., O'Brien, J., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023, October). Generative agents: Interactive simulacra of human behavior. In Proceedings of the 36th annual acm symposium on user interface software and technology (pp. 1-22).

[11] Park, J. S., Zou, C. Q., Shaw, A., Hill, B. M., Cai, C., Morris, M. R., ... & Bernstein, M. S. (2024). Generative agent simulations of 1,000 people. arXiv preprint arXiv:2411.10109.

[12] Vezhnevets, A. S., Agapiou, J. P., Aharon, A., Ziv, R., Matyas, J., Duéñez-Guzmán, E. A., ... & Leibo, J. Z. (2023). Generative agent-based modeling with actions grounded in physical, social, or digital space using Concordia. arXiv preprint arXiv:2312.03664.

 
혹시 이와 관련한 논의를 나누고 싶거나, 관련 지식을 더 쌓고 싶으신가요? CIT의 원데이 칼리지(One Day College) 프로그램에 참여하여, 가벼운 마음으로 새로운 지식, 알찬 지식을 얻어보세요!

조회수 8회

관련 게시물

전체 보기

Comments

Rated 0 out of 5 stars.
No ratings yet

Commenting has been turned off.
bottom of page