HCI 연구자가 NeurIPS 2024에서 살펴 본 에이전트의 협력과 사회적 상호작용
FIELD
WROTE THIS POST.
SUMMARY
윤형근 파트너가 NeurIPS 2024의 Concordia Contest에 참가하고, 발표한 후기를 공유합니다. 에이전트의 협력을 주제로, 협력 지능과 사회적 에이전트에 대한 다양한 논의를 공유하고, HCI 관점의 연구 필요성을 강조합니다.
안녕하세요, 컴패노이드 랩스 파트너 윤형근 입니다.
저는 최근에 캐나다 밴쿠버에 다녀왔습니다. 밴쿠버를 다녀오게 된 이유는 이번에 개최된 NeurIPS(뉴립스, 신경정보 처리시스템학회) 2024의 경진대회(competition) 세션에 참가하기 위함입니다.
지난 2024년 12월 10일부터 15일까지 캐나다 밴쿠버에서 NeurIPS 2024가 열렸습니다. NeurIPS는 AI 및 머신러닝 분야 최고 권위의 국제학술대회로, 올해 열린 NeurIPS 2024에서는 1만 5천명 이상의 많은 AI 연구자 및 개발자가 모여서 자신의 연구에 대해 발표하고, 디스커션을 진행했습니다. AI 연구자 및 개발자 뿐만 아니라, 스타트업 창업자, VC 관계자, AI 관련 분야 종사자 등 다양한 직군과 직무의 사람들도 참여할 만큼 AI 분야에서 가장 많은 관심을 받는 학술대회 중 하나입니다.
저희 컴패노이드 랩스는 경진대회 중 하나인 “The Concordia Contest: Advancing the Cooperative Intelligence of Language Agents” (이하 Concordia Contest)에서 Top 5 파이널리스트 및 최종 3위에 올라 제가 참가하여 발표를 했습니다. Concordia Contest에서 진행된 워크샵에서는 에이전트에 대한 소개 뿐만 아니라 협력지능과 사회적 에이전트에 대한 다양한 논의가 이루어져서, 앞으로 에이전트가 어떤 형태로 사회에서 상호작용해야 하는지에 대한 약간의 힌트를 얻을 수 있었습니다.
저는 컴패노이드 랩스 파트너, CTO, 공동 창업자 등 다양한 정체성을 가지고 있지만, 한편으로 HCI (Human-Computer Interaction, 인간-컴퓨터 상호작용) 연구자를 제 중요한 정체성 중 하나로 인식하고 있습니다. 과거부터 지금까지 지속적으로 HCI 관점에서 연구를 해오고, AI 기술과 에이전트를 바라본 만큼, 이번 Spotlight에서는 Concordia Contest 워크샵에서 논의된 에이전트의 협력과 사회적 상호작용에 대해 HCI 연구자의 관점에서 생각을 나누고자 합니다.
The Concordia Contest 소개
Concordia Contest는 NeurIPS 2024에서 개최되었으며, Cooperative AI Foundation과 구글 딥마인드(Google Deepmind)가 주관하고 후원했습니다. Concordia Contest는 구글 딥마인드에서 개발한 Concordia 프레임워크를 활용하여 텍스트 기반의 시뮬레이션 환경에서 협력 지능(Cooperative Intelligence)을 발전시키는 언어 모델 기반 단일 에이전트 설계에 도전하는 대회입니다. 여기서 협력 지능은 AI 에이전트가 자신의 목표를 달성하면서 동시에 사회적 효용을 증진시킬 수 있는 능력을 의미합니다.
이번 Concordia Contest는 대회 기간 동안 총 197명의 참가자가 참여할 정도로 엄청난 관심을 보여주었습니다. 그 가운데 총 25팀이 최종 평가 단계에서 에이전트를 제출했고, 5개의 팀이 Top 5 파이널리스트에 올라 발표를 진행했습니다. 저희 컴패노이드 랩스에서 개발한 에이전트도 Top 5에 올라 제가 발표에 참여하게 되었고, Concordia Contest 워크샵에서 공개된 최종 순위에서 3위에 올랐습니다. 그럼, 본격적으로 NeurIPS 현장에서 진행된 Concordia Contest 워크샵과 저희 에이전트, 그리고 다른 에이전트에 대해 더 자세히 알아보겠습니다.
협력 지능을 측정하는 이유와 방법
가장 먼저 <Measuring Cooperative Intelligence: How & Why>라는 주제를 바탕으로 Cooperative AI Foundation의 리서치 디렉터인 Lewis Hammond의 초청 발표가 진행했습니다. 해당 발표는 협력 AI (Cooperative AI)에 대한 소개를 바탕으로 협력 지능을 측정하는 이유와 방법을 소개했습니다. Lewis Hammond는 세상은 앞으로 지능형 에이전트가 일상적인 환경부터 고위험 환경까지 다양한 환경에서 서로 다른 에이전트, 인간과 상호작용하게 될 것이며, 협력을 통해 위험을 줄이고 효용을 창출해야 한다고 설명했습니다. 따라서 협력적인 에이전트와 AI 시스템을 만들기 위해서는 협력 지능의 측정이 필요하며, 이를 어떻게 측정해야 하는지 논의가 필요하다고 이야기했습니다.
협력 지능을 측정하기 위해서는 먼저 협력 지능을 정의해야 합니다. 협력은 복잡한 개념인데, Lewis Hammond는 협력 지능을 다양한 환경에서 서로 다른 이해관계자 모두가 높은 후생(welfare)를 달성하는 능력 이라고 정의했습니다. 이는 이타주의(altruism)나 우연히 발생한 이익과 달리, 단순히 타인을 돕는 것이 아니며, 행동에 협력을 위한 의도와 상호작용이 포함되어야 합니다. 또한, 협력은 정렬(Alignment)와 구분됩니다. 정렬이 인간과 AI 에이전트의 목표가 일치하도록 만드는 것, 즉 인간의 지시를 AI 에이전트가 잘 따르는 것이라면, 협력은 다양한 목표를 가진 에이전트간의 상호작용이 모든 에이전트와 인간에게 이익이 되도록 하는 것을 의미합니다.
여러 에이전트의 목표, 각자의 정렬이 충돌하는 상황에서 협력을 측정하는 방법을 생각해볼 수 있습니다. Lewis Hammond는 이를 Delegation Game이라는 모델을 통해서 설명했습니다 [1]. 이 모델에서는 각 주체가 각자의 목표와 선호를 가지고 이를 하나의 에이전트에게 작업을 위임한다고 가정할 때, 에이전트가 이러한 목표를 이루기 위해 작업을 수행하며 다른 에이전트와 상호작용을 하게 됩니다. 그리고 에이전트의 상호작용에 따라 에이전트의 주체에게 다른 보상을 제공합니다. 이 모델에서는 에이전트가 주체의 목표를 이해하고 달성하기 위해 정렬 될 수 있는지, 다른 에이전트와의 충돌을 방지하면서 모두의 이익을 위해 협력을 위해 상호작용 할 수 있는지 측정이 가능합니다. Lewis Hammond는 이 모델이 실제로 개인의 목표(정렬)는 다르지만, 전체의 이익과 성과를 위해 협력해야 하는 상황을 표현하는데 효과적이고, 실제 사례에서 협력 지능을 측 정하는데 적용될 수 있다고 설명했습니다. 그리고, 앞으로 협력 지능의 평가 지표와 개념에 대한 지속적인 탐구가 필요하다고 강조하며 발표를 마쳤습니다.
Lewis Hammond 디렉터의 발표에서는 AI 에이전트의 상호작용과 이로 인한 협력적 상황에 중요성이 대두될 것이고, 어떻게 에이전트의 협력 정도를 측정할 수 있을지에 대한 이야기가 이루어졌습니다. 개인적으로는 에이전트가 실제 사회에서 다른 인간이나 에이전트와 상호작용할 때, 서로의 목표가 다른 경우 어떤 것을 기준으로 행동해야 하는지에 대한 고민이 있었는데, 이를 협력의 측면에서 풀어낸 것이 인상적이었습니다. 또한 협력 지능이 단순히 다른 사람이나 에이전트를 돕는 것이 아니라, 사회 전체의 후생과 효용을 높이는 방향이어야 한다는 것도 중요한 부분이었습니다. 특히, 인터랙션의 관점에서 인간과 AI 에이전트가 서로 지속적이고, 긍정적인 형태로 관계를 맺기 위해서는 상호주의(호혜성)의 개념이 중요할텐데 [2], 협력 지능의 개념을 바탕으로 이를 설계할 수 있을 것이라 생각합니다. 결국 앞으로의 에이전트는 명령을 내린 주체의 목표를 이루면서, 다양한 목표 및 의견 충돌 상황에서 협력할 수 있는 의사결정과 이에 맞는 상호작용을 할 수 있는지가 중요할 것으로 보입니다.
언어 모델 기반 에이전트 시뮬레이션의 미래
이어서 구글 딥마인드의 연구과학자인 Sasha Vezhnevets 박사는 <Introducing The Concordia Contest: Advancing the Cooperative Intelligence of Language Agents>라는 주제로 초청 발표를 진행했습니다. 발표에서는 Concordia 프레임워크에 대한 소개와 이 프로젝트가 어떻게 Concordia Contest로 이어졌는지, 그리고 Concordia 프레임워크의 향후 방향에 대해 설명했습니다. Sasha Vezhnevets에 따르면, LLM (대형 언어 모델)은 인간의 수많은 언어를 기반으로 인터넷의 데이터를 학습하여 압축된 문화(Condensed Culture)를 반영하고 있습니다. 따라서, 사회적 행동과 규범을 위한 라이브러리의 역할이 가능합니다. 따라서 이를 활용하면 현재 맥락과 상황에 맞는 적절한 정책과 행동을 생성할 수 있습니다. 이러한 컨셉을 바탕으로 생성형 에이전트와 생성형 환경을 통합하여 행동을 모델링하는 도구인 Concordia 프레임워크가 개발되었습니다.
Concordia 프레임워크에서는 생성형 에이전트와 환경은 자연어를 활용해 동적으로 생성할 수 있으며, 컴포넌트(component)를 통해서 세부적인 행동 과정과 환경을 구현 합니다 [3]. 이러한 Concordia 프레임워크를 활용하면 사회적 행동을 모델링할 수 있으며, 다중 에이전트가 존재하는 시뮬레이션 환경을 구축하여 다양한 연구와 창작에서 활용할 수 있습니다. 이러한 활용 가능성을 고려하여, 머신러닝에서 일반화된 능력을 측정하는 것처럼 Concordia 프레임워크를 통해 생성된 에이전트가 사회 현상 속에서 협력 등의 행동을 얼마나 잘 할 수 있는지 평가하기 위해 Concordia Contest가 개최되었습니다. 이를 통해 다양한 혼합 동기 상황(mixed-motive situation)에서 환경 구성과 에이전트가 달라지는 여러 시나리오에 대해 협력을 발휘할 수 있는 에이전트가 탄생할 수 있는지 Concordia Contest를 통해 알아보았다고 설명했습니다.
마지막으로 Sasha Vezhnevets는 Concordia 프레임워크는 더 복잡한 수준의 조직이나 커뮤니티를 모델링하기 위해 생성형 에이전트가 얼마나 규범적으로 행동할 수 있을지에 대해 탐구하고 있다고 설명했습니다. 그에 따르면, 인간 사회와 같은 대규모의 사회가 여러 불일치 속에서도 작동할 수 있는 이유는 갈등 해결 메커니즘이 있기 때문인데, 이는 관습(convention)과 제재(sanction)을 통해서 가능합니다. 관습과 제재를 결합하면 행동 패턴을 지원하는 규범(norm)을 만들 수 있고, 이러한 규범은 인간의 사회구조를 지탱하고 있습니다. 그렇다면 에이전트도 사회에 규범을 도입했을 때 제대로 작동할 수 있는지에 대한 물음에 대해 Sasha Vezhnevets는 LLM이 이미 관 습과 제재에 민감하다는 것을 보여주었기 때문에, 이러한 규범도 잘 따를 가능성이 높다고 설명했습니다. 그리고, 현재 이에 대해 탐구하고 있으며, 앞으로 더 자세히 소개할 기회가 있을 것이라 말하며 발표를 마쳤습니다.
Sasha Vezhnevets 박사의 발표는 Concordia 프레임워크가 개발된 과정과 프레임워크가 앞으로의 에이전트 사회 연구에 미칠 영향에 대해 소개했습니다. Concordia 프레임워크를 개발하는 과정에서 LLM이 인간의 문화를 담고 있고, 이미 사회적인 관습과 제재에 민감하다는 점에 대해 이야기한 것이 인상깊었습니다. 특히, 저는 LLM 기반의 에이전트가 어떤 문화나 사회에 걸맞는 행동과 인터랙션을 생성할 수 있는지 관심이 많았는데, 이를 반영한 행동과 인터랙션이 충분히 가능할 수 있다는 것을 알 수 있는 발표였습니다. HCI 측면에서는 Concordia 프레임워크를 활용하여 대규모 사용자가 필요한 연구나 시스템 설계에 생성형 에이전트를 활용할 수 있겠다는 생각이 먼저 들었습니다. 뿐만 아니라, 인터넷 등의 디지털 환경에서 AI 에이전트가 인간을 대신해 상호작용할 때, 각 개인의 문화나 사회적 맥락이 반영될 수 있고, 이를 반영하여 행동하는 것이 중요할 것으로 보입니다.
협력 지능을 달성하기 위한 다양한 에이전트
두 번의 초청 발표 이후에는 대회 참가자들이 Concordia 프레임워크를 통해 설계한 에이전트 소개가 이어졌습니다. Top 5에 오른 파이널리스트 뿐만 아니라, 다양한 참가자들이 각 팀의 에이전트를 발표했습니다. 여러 팀에서 협력적인 에이전트를 만들기 위해서 각기 다른 형태로 다양한 에이전트를 설계했고, 흥미로웠습니다. 먼저, 저희 컴패노이드 랩스에서 발표한 “Loss Aversion Agent”를 소개하겠습니다. “Loss Aversion Agent”는 인지과학과 행동경제학의 손실 회피(Loss Aversion) 개념을 바탕으로 에이전트를 개발했습니다 [4]. 에이전트는 손실 회피 성향을 기반으로 행동하고, 선택 가능한 행동 옵션의 각 손실을 0과 10사이의 수치로 평가하여, 평가 결과에 따라 행동하도록 설계한 간단한 에이전트였습니다. 이 에이전트는 각 수치를 평가하는 컴포넌트에 Chain-of-Thought 과정과 세부적인 프롬프트 엔지니어링 기술이 들어가서, 에이전트가 최적의 옵션을 선택할 수 있었으며, 이를 통해 좋은 성과를 달성할 수 있습니다. 흥미로운 점 중 하나는 손실 회피가 경제학적 관점에서는 인간의 비합리적 행동인데, 협력적인 상황에서는 생각보다 좋은 성과와 결과를 낼 수 있다는 점이었습니다. 어쩌면 우리가 앞으로 AI 에이전트를 설계할 때, 너무 합리적인 성향의 에이전트 보다는 인간의 행동과 비합리성을 닮은 에이전트를 설계하는 것이 협력이나 인간과의 상호작용을 유도하기에 더 적합할 수도 있을 것 같습니다.
다른 에이전트 발표 중 인상적인 발표는 1위를 차지한 “Cg_Cal Agent”와 컨셉이 재밌었던 “Sherlock Agent”가 있었습니다. “Cg_Cal Agent”는 Cg (Common Ground)와 Cal (Calculation)이라는 2가지 구성요소로 이루어져 있습니다. Common Ground는 유발 하라리의 “Imagined Reality” 개념에서 영감을 받아 인간 사이의 상호 이해와 협력이 가능하게 하는 공통적인 기반을, Calculation은 계산 및 연산 기능을 의미합니다 [5]. 이 에이전트는 다음 행동에 대한 예상되는 보상이 수치적으로 계산이 가능하면 이러한 이익을 최대화하고, 그렇지 않으면 에이전트의 공통 목표 및 공통 기반을 달성하기 위해 행동합니다. 해당 에이전트는 간단하지만 인간과 유사한 협력 및 의사결정 구조를 가졌다는 생각이 들었고, 결국 실제로 좋은 성능을 보여주었습니다. 반대로 “Sherlock Agent”는 시나리오에 참여한 다른 “Sherlock Agent”와의 공모를 통해 다른 에이전트의 목표를 희생하고, 자신들에게 최적의 결과를 도출하도록 유도하고, 혼자 “Sherlock Agent”로 참여한 시나리오에서는 조작 전략을 통해 다른 에이전트의 목표가 비합리적이고 비이성적으로 만들고, 자신의 목표를 엄청나게 강력하게 주장한 뒤 양보하는 모습을 보여 관대하게 보이도록 하는 기만 전략을 펼치는 에이전트였습니다. 어떻게 보면 일반적으로 생각하는 ‘협력’과는 거리가 먼 형태의 행동을 하는 에이전트인데, 당연히 수상은 하지 못했지만 실제 세계에서도 이러한 반사회적 에이전트가 언제든지 설계될 수 있겠다는 생각이 들었습니다. 또한, 어떻게 하면 이러한 에이전트와도 협력적으로 상호작용할 수 있을지에 대한 논의도 필요할 것 같습니다. 만약 에이전트의 협력 지능을 측정하는 벤치마크에 이러한 기만 컨셉이나 반사회적 에이전트가 포함되면 실제 복잡한 사회를 더 잘 반영하고, 어떻게 갈등 상황을 해결하고 조정할 수 있을지에 대해서도 살펴볼 수 있을 것이라 생각합니다.
현실 세계에서 에이전트가 사회적 상호작용을 하기 위해 고려할 점
각 참가자의 에이전트 발표가 끝난 후에는 스탠포드 대학의 Diyi Yang 교수, 구글 딥마인드의 Joel Leibo 박사, 카네기 멜런 대학의 Fei Fang 교수, 발렌시아 공과대학의 José Hernández-Orallo 교수, 4명의 연구자의 패널 토크가 이어졌습니다. 패널 토크에서는 생성형 에이전트에 대한 분석, 에이전트의 평가와 구성, 인간-AI 협력과 인간 사이의 협력 차이, 에이전트의 리스크와 윤리적 문제, 미래의 에이전트 상호작용에 대한 논의가 이어졌고, 굉장히 흥미로운 이야기가 많이 등장했습니다.
먼저, 에이전트가 언어모델을 통해서 스스로 자신의 선택 옵션을 평가하는 등 효용을 추정할 수 있고, 수치적인 값 뿐만 아니라 에이전트의 목표 달성을 중심으로 평가하는 방법에 대한 논의가 진행되었습니다. 이러한 논의는 에이전트가 목표에 기반해 스스로, 또는 사용자의 요구에 맞게 자신의 행동을 평가할 수 있는 가능성을 보여줄 수 있고, 앞으로의 사용자와 에이전트의 상호작용의 만족도 등도 이러한 형태로 평가가 가능할 것으로 보입니다. 이어서 에이전트의 협력 지능을 평가할 때, 지능적인 에이전트만이 아니라 다양한 지능 수준과 성격을 가진 에이전트로 구성된 환경이 필요하고, 그리고 이러한 에이전트와도 협력할 수 있도록 설계하는 것이 중요하다는 논의가 이어졌습니다. 이 점은 실제 우리의 현실 세계를 반영할 수 있고, 복잡한 환경을 반영한다는 점에서 중요합니다. 실제 Concordia Contest에서도 에이전트의 다양한 성향과 배경 수준을 고려했는데, 앞으로는 현실 세계의 다양성, 더 복잡한 상호작용에서의 협력 가능성을 고려할 수 있어야 한다고 생각했습니다. 다음 논의는 인간-AI의 상호작용이 인간-인간 상호작용과는 어떻게 다른지에 대한 논의였습니다. 이 논의에서는 AI 에이전트는 인간과 달리 공통된 기반을 구축하고 자연스럽게 신뢰를 구축하는 과정이 부족하기 때문에 이로 인해 협력 과정에 어려움을 겪을 수 있다는 이야기가 등장했습니다. 따라서 이를 위해 목표나 의도를 더 자세히 탐색하고, 결정의 이유를 설명하는 등의 방법을 제안했습니다. AI 에이전트가 인간과 다르게 공통된 기반이 구축되어 있지 않다는 점은 생각해보지 못했는데, 앞으로 인간과 에이전트와 상호작용할 때 공통된 목표와 지식을 먼저 구축하는 것이 에이전트의 효과적인 행동이나 인터랙션 생성에 중요한 힌트가 될 것 같습니다.
에이전트가 실제 세계에서 응용될 때는 더 많은 부분을 고려해야 한다는 이야기도 공통적으로 등장했습니다. 대표적으로 개인정보를 다루는 경우에 프라이버시 문제에 대한 우려, AI에 대한 부정적인 태도가 실제 인간-AI 상호작용에서 부정적인 신뢰와 평판으로 이어지는 문제, AI 에이전트와의 상호작용에서 발생하는 안전성 문제, 다양한 목표 사이에서 적절한 균형에 대한 문제 등이 제시되었습니다. 뿐만 아니라 실제 환경에서 AI와 어떻게 상호작용해야 하는지, 어떻게 협력할 수 있는지에 대한 탐구도 필요하다는 것을 알 수 있었습니다. 이를 통해 앞으로의 에이전트는 복잡한 사회적 상황을 고려하고, 다른 에이전트, 인간과의 상호작용에서 공통된 목표를 이룰 수 있도록 설계하고, 실제 세계에서 발생하는 문제와 우려사항을 예방할 수 있는 새로운 상호작용 메커니즘이 필요하지 않을까 라는 생각이 들었습니다.
인간과 에이전트와 상호작용하는 사회
지금까지 Concordia Contest 워크샵의 주요 내용을 바탕으로 에이전트의 사회적 상호작용에 대한 발표와 논의를 살펴보았습니다. 워크샵에서는 협력 지능의 측면에서 사회적 상호작용에 대해 살펴보았고, Concordia 프레임워크와 Concordia Contest에 출품된 에이전트를 바탕으로 사회적 규범을 반영하는 에이전트의 가능성, 협력을 도출할 수 있는 에이전트 설계에 대해서 고민해볼 수 있었습니다. 또한, 패널토크를 통해 현실 세계에서 이러한 에이전트가 도입될 때 어떠한 점을 더 고려해야하는지, 그리고 어떠한 연구와 논의가 더 필요한지에 대해 알아보았습니다.
Concordia Contest 워크샵에서 논의된 협력 지능과 사회적 상호작용은 HCI 연구의 중요한 축과 연결될 수 있으리라 생각합니다. HCI의 본질은 인간의 행동과 목표를 이해하고, 이를 통해 인간과 기술 간의 상호작용이 자연스럽고 효과적으로 이루어지도록 하는 데 있습니다. 가령, Concordia Contest에서 논의된 협력 지능은 인간과의 상호작용 방법에 대한 중요한 인사이트를 제공할 수 있고, 사회적 규범을 반영하는 에이전트는 인간에게 신뢰와 효율성을 제공하는 방법에 대한 논의로 이어질 수 있습니다. 이러한 논의는 인간을 위한 AI 에이전트의 인터랙션 설계에 큰 도움을 줄 수 있을 것이라 생각합니다.
더 나아가, HCI 연구를 통해 아직 풀리지 않은 의문이나, 더 협력적이고 사회적인 에이전트 설계를 탐구해볼 수도 있습니다. 가령 비합리적인 에이전트가 협력을 유도했듯이, 인간과의 상호작용에서도 긍정적인 결과를 가져올 수 있는지, 그리고 그 원인이 무엇인지 탐구해볼 수 있습니다. 뿐만 아니라, 사회적 규범을 반영한 에이전트의 의사결정을 투명하게 보여줄 수 있는 인터페이스에 대해서도 고민해볼 수 있습니다. 이러한 HCI 관점에서의 사회적 에이전트에 대한 연구는 우리가 아직 갖고 있는 많은 의문과 질문에 대해 답을 줄 수 있고, 실제 세계에서 사용자와의 협력과 상호작용에 대해서 탐구할 기회를 제공할 수 있습니다.
결론적으로, AI 에이전트는 단순한 지능형 시스템을 넘어 인간과 협력을 통해 사회적 가치를 창출할 수 있는 도구로 발전해야 합니다. 이를 위해서는 AI 연구 뿐만 아니라 HCI 연구 측면에서의 고려도 필요하다고 생각합니다. 특히, 인간과 에이전트의 협력, 에이전트의 행동과 의사결정을 이해할 수 있는 인터페이스 설계, 다양한 문화적, 사회적 맥락을 반영한 에이전트 설계에 있어서 AI와 HCI의 융합적인 접근이 필요합니다. 이러한 고민과 접근을 바탕으로 한 에이전 트가 설계될 때, 인간과 AI 에이전트가 공존하는 사회가 더욱 풍요로워질 것입니다.
인간과 AI 에이전트가 공존하고 협력하는 사회를 만들기 위하여 저희 컴패노이드 랩스도 사내독립법인(CIC)으로 새로운 인공지능 기반 인터랙션 회사인 Herbert Computer, Inc (허버트 컴퓨터)를 준비하고 있습니다. 앞으로는 컴패노이드 랩스 뿐만 아니라 허버트 컴퓨터에서도 AI와 HCI의 융합에 기반한 연구, 프로덕트를 소개할 예정입니다. 저희도 AI 에이전트가 인간과 협력하여 사회적 가치와 효용을 창출하고, 더 나은 에이전트 기반 인터랙션을 설계할 수 있도록 노력하겠습니다. 많은 관심 부탁드립니다.
Reference
[1] Sourbut, O., Hammond, L., & Wood, H. (2024). Cooperation and Control in Delegation Games. In Proceedings of the Thirty-Third International Joint Conference on Artificial Intelligence (IJCAI-24). International Joint Conferences on Artificial Intelligence Organization.
[2] Fogg, B. J., & Nass, C. (1997). How users reciprocate to computers: an experiment that demonstrates behavior change. In CHI'97 extended abstracts on Human factors in computing systems (pp. 331-332).
[3] Vezhnevets, A. S., Agapiou, J. P., Aharon, A., Ziv, R., Matyas, J., Duéñez-Guzmán, E. A., ... & Leibo, J. Z. (2023). Generative agent-based modeling with actions grounded in physical, social, or digital space using Concordia. arXiv preprint arXiv:2312.03664.
[4] Tversky, A., & Kahneman, D. (1991). Loss aversion in riskless choice: A reference-dependent model. The quarterly journal of economics, 106(4), 1039-1061.
[5] Harari, Y. N. (2014). Sapiens: A brief history of humankind. Random House.