EP.02 – Claude의 독립: 다리오의 결단
"AI는 누구의 손에 있어야 하는가?"
프롤로그: 조용한 반란
2021년 가을, 샌프란시스코의 한 연구소 회의실. 늦은 밤까지 모니터 앞에 앉아 있던 한 남자가, 조용히 노트를 덮는다. 그의 이름은 다리오 아모데이(Dario Amodei).
그는 OpenAI의 부사장이었고, GPT-2와 GPT-3의 설계자 중 한 명이었다. 하지만 그날, 그는 결심했다. 떠나겠다고.
그리고 한 달 후, 그는 자신의 회사를 차린다. 그 회사의 이름은 Anthropic(앤트로픽). 거기서 그는 GPT와는 완전히 다른 방향의 AI를 만들기 시작한다. 그 AI의 이름은, **Claude(클로드)**였다.
💡 Anthropic은 '인간 중심의 인공지능'을 철학으로 내세운 AI 스타트업입니다.
1. 다리오 아모데이, GPT의 중심에서 돌아선 이유
다리오는 수년간 GPT 프로젝트의 최전선에 있었다. GPT-2가 너무 강력해 공개를 미루었을 때도, GPT-3가 대중 앞에 처음 선보였을 때도, 그는 그 자리에 있었다.
하지만 시간이 지나면서 그는 불안을 느꼈다. 너무 빠른 속도, 너무 큰 모델, 너무 많은 가능성.
"우리는 너무 빠르게 나아가고 있었다. 위험을 감지할 시간조차 없을 정도로." — 다리오 아모데이 (2022년, Anthropic 블로그)
GPT-3는 상업적 성공을 거뒀지만, 그 안에는 질문이 있었다. “이 AI는 누구를 위해 작동하는가? 그리고 누구에 의해 통제되는가?”
다리오는, 그 질문에 답하기 위해 나왔다.
2. Claude: 윤리를 먼저 생각한 AI
Claude는 경쟁자가 아니라, 질문자였다. “AI는 정말로 인간을 이해하고 있는가?” “우리는 AI에게 어떤 기준을 가르쳐야 하는가?”
GPT가 ‘더 잘 대답하는 법’을 배웠다면, Claude는 ‘어떻게 대답해야 하는가’를 먼저 배웠다.
Anthropic은 Claude에게 헌법을 가르쳤다.
💡 헌법 기반 AI란?
AI가 따를 수 있는 가치 지향적 원칙(헌법)을 먼저 정의하고, 그 원칙을 기준으로 학습을 진행하는 방식입니다.
Claude는 공격적이거나 편향된 응답을 스스로 걸러내는 훈련을 받았다. AI가 인간을 위해 존재한다면, 인간의 기준을 먼저 알아야 한다는 철학이었다.
그리고 그 철학은, 다리오의 삶 전체에서 비롯된 것이었다. 그는 과학자이면서, 동시에 사색가였다. 기술의 진보보다, 그것이 끼칠 영향에 대해 더 오래 고민하던 사람이었다.
3. Anthropic vs OpenAI: 철학의 갈림길
두 회사는 언뜻 보기엔 닮았다. 언어모델, 대규모 훈련, 거대 기업의 투자.
하지만 질문은 다르다.
항목 OpenAI Anthropic
창립 동기 | 기술 개방, AGI 개발 | AI의 안전성과 통제 가능성 |
주요 모델 | GPT-4, ChatGPT | Claude 1~3 시리즈 |
접근 방식 | 기능 중심, 상업화 우선 | 윤리 중심, 내부 실험 중시 |
자금 구조 | Microsoft 투자 중심 | Google, Zoom 등 외부 투자 분산 |
GPT는 상업화를 택했고, Claude는 의도를 택했다.
다리오는 인터뷰에서 이렇게 말했다.
"강력한 모델을 만드는 것은 어렵지 않다. 정말 어려운 건, 그 모델이 책임감 있게 작동하도록 만드는 일이다."
4. Claude의 구조와 특징
Claude는 GPT 시리즈와 달리, 사용자 피드백을 중심으로 설계되었다.
- 대화의 맥락을 더 잘 이해하고,
- 질문자의 의도를 파악하며,
- 언제나 정중하고, 조심스럽다.
그리고, Claude는 대답만 하지 않는다. **“왜 그렇게 대답했는지”**도 설명한다.
💡 자기 설명 능력(Self-explanation):
AI가 자신의 답변 근거를 설명할 수 있는 기능. 투명성과 신뢰성 향상에 기여.
Anthropic은 이 구조를 “AI의 양심 회로”라고 설명했다.
5. AI는 누구의 편에 서야 하는가?
이제 AI는 단순한 기술이 아니다.
매일 수억 명이 그것과 대화하고,
그 응답은 사람의 선택을 바꾸고, 감정을 흔든다.
그렇다면 우리는 질문해야 한다.
“이 AI는 누구를 위한 것인가?”
GPT는 빠르다. 정확하다. 탁월하다. 하지만 Claude는, 묻는다. “그렇게 대답하는 게 정말 옳은 일일까?”
다리오 아모데이의 결단은, 기술을 향한 반란이 아니었다. 그것은 윤리를 향한 귀환이었다.
📌 요약 정리
- 다리오 아모데이는 OpenAI에서 GPT를 만들었지만, 위험성을 느끼고 독립했다.
- 그는 인간 중심의 윤리적 AI를 만들기 위해 Anthropic을 창립했다.
- Claude는 헌법 기반 훈련과 자기 설명 능력을 가진 AI로 설계되었다.
- GPT와 Claude는 기술뿐 아니라 철학에서도 큰 차이를 가진다.
🧾 참고 출처
- Anthropic 공식 블로그: https://www.anthropic.com/index
- "Constitutional AI" 논문: https://arxiv.org/abs/2212.08073
- 다리오 인터뷰: Lex Fridman Podcast (2023)
📣 당신에게 묻습니다
AI는 점점 똑똑해지고 있습니다.
그렇다면, 우리는 그것이 '어떻게 똑똑해지도록 만들 것인지'에 대해
충분히 고민하고 있을까요?
'AI인사이트 > AI 시대의 인물들' 카테고리의 다른 글
EP.06 – 일야 수츠케버: 침묵하는 공동 창립자 (0) | 2025.04.04 |
---|---|
EP.05 – xAI와 머스크의 외계 지능 실험 (1) | 2025.04.02 |
EP.04 – AGI를 두고 벌어진 쿠데타 (0) | 2025.04.01 |
EP.03 – DeepMind의 철학자: 데미스와 알파고 (1) | 2025.03.31 |
EP.01 – GPT의 탄생: 샘 알트먼과 일야 수츠케버 (1) | 2025.03.30 |