EP.03 – DeepMind의 철학자: 데미스와 알파고
EP.03 – DeepMind의 철학자: 데미스와 알파고

EP.03 – DeepMind의 철학자: 데미스와 알파고

"기계는 왜 인간을 이기고자 했는가?"


프롤로그: 바둑판 위의 질문

2016년 3월, 세상은 충격에 빠졌다.
인공지능이 인간 바둑 챔피언을 이긴 것이다.

그 주인공은 알파고(AlphaGo), 그리고 그 배후에 있는 조직은 DeepMind.
그리고 이 모든 계획을 세운 중심엔, 한 사람의 과학자가 있었다.
그의 이름은 데미스 허사비스(Demis Hassabis).

그는 단지 AI를 이기게 만든 것이 아니라,
**인간의 지능이란 무엇인가?**라는 질문을 기계에게 던진 사람이었다.

💡 DeepMind는 영국에서 시작된 인공지능 연구 기업으로, 2014년 Google에 인수됨. 인간 수준의 지능을 목표로 연구 중.


1. 체스 천재에서 인공지능 철학자로

데미스 허사비스는 13세에 체스 마스터가 되었고, 17세에 게임 개발을 시작했다.
옥스퍼드와 UCL에서 인지신경과학을 공부했고, 인간 기억의 메커니즘을 연구했다.

그는 질문했다.
기억, 상상, 사고… 인간 지능의 구조를 기계가 모방할 수 있을까?

이 질문은 DeepMind의 철학이 되었고, 그 첫 번째 실험이 바로 알파고였다.


2. 알파고, ‘이기기 위해 태어난 AI’

알파고는 단순히 규칙 기반 프로그램이 아니었다.
그것은 딥러닝과 강화학습을 결합한, 자기 훈련형 AI였다.

  • 수백만 번의 대국을 스스로 반복하며,
  • 기존 인간 기보를 학습하며,
  • 인간이 두지 않는 수를 ‘상상’해 냈다.

그 결과, 2016년 3월, 이세돌 9단과의 대국에서 4:1 승리를 거둔다.

이 승리는 전 세계에 충격을 주었다.
“인간만의 영역”이 무너진 것 같았다.

💡 강화학습(Reinforcement Learning):
AI가 시행착오를 통해 보상을 최대화하도록 학습하는 방식


3. 단 한 판, 인간이 AI를 이긴 날

그런데 모두가 잊지 못하는 단 한 판이 있다.
2016년 3월 13일, 알파고와의 4국까지 전패했던 이세돌은 제5국에서 승리한다.

그 판에서, 그는 아무도 예상하지 못한 수를 둔다.
바로 78번째 수. 해설자도, AI도, 관중도 멈춰섰다.

알파고는 흔들렸다.
그 수는 AI의 계산 속 확률 분포상 천 번 중 한 번도 선택하지 않을 확률이었다.

“그 수는 우리 모델이 예측하지 못한, 인간 고유의 직관이었다.”
— 데미스 허사비스, 《AlphaGo》 다큐멘터리 中

그날, 인간은 한 판을 이겼다.
그러나 더 깊은 의미는 그 승리보다, AI가 이해하지 못한 수에 있었다.

그건 수학이 아니라 감각이었다. 계산이 아니라 맥락이었다.

그 순간, 우리는 알았다.
인공지능이 ‘이길 수 있는 존재’가 되었을지라도, 아직 ‘이해하는 존재’는 아니라는 것.

그날의 78수는 인간이 AI에게 던진 질문이자 선언이었다.
“우리는 여전히 예측 불가능한 존재이다.”

그리고 데미스는 그 순간, 다시 질문을 던진다.

“AI는 정말로 ‘이해’할 수 있는 존재인가?”


3.5 알파고 팀 내부의 반응과 데미스의 고백

이세돌이 승리한 날 밤, DeepMind 내부는 침묵에 가까웠다.
기술자들은 78수의 의미를 되짚으며, “우리가 놓친 건 무엇인가”를 다시 검토했다.

어떤 이는 “AI는 승리를 배웠지만, 예외를 배우지는 못했다”고 말했고, 다른 이는 “AI가 감히 인간의 상상력을 예측하려 했던 건 오만이었다”고 적었다.

그리고 데미스는 조용히 말했다.

“그날 밤, 나는 오히려 안도했다. 우리는 아직 인간을 완전히 이해하지 못한다는 사실이, 나에겐 위로였다.”

그 한 판의 패배는 DeepMind에게 기술의 한계이자 철학의 출발점이 되었다.


4. DeepMind는 왜 게임을 연구하는가?

데미스는 말했다.

“게임은 우주의 축소판이다.
규칙, 선택, 전략, 창의성… 모두 존재한다.”

DeepMind는 알파고 이후에도 다양한 게임에서 AI를 실험했다.

  • 알파스타(Starcraft II)
  • 도타(DOTA 2)
  • 아타리 게임 57종

이 실험들은 단순한 엔터테인먼트가 아니었다.
그는 AI가 복잡한 환경에서 인간처럼 학습할 수 있는지를 증명하고자 했다.


5. 철학자 데미스의 질문: "AI는 생각하는가?"

데미스는 기술자이면서도 철학자였다.
그는 AI의 윤리적 사용, 기억 시스템, 자기반성 능력에 깊은 관심을 두었다.

그는 단순한 자동화가 아닌,
**“의도를 가진 지능”**을 만들고자 했다.

“우리는 AI가 단지 똑똑해지는 것에 관심이 없다.
AI가 책임감 있고 이해 가능한 존재가 되길 바란다.”
— 데미스 허사비스, 2020

이 발언은 DeepMind가 기술 개발만큼이나,
윤리와 책임, 설명 가능성을 연구하는 이유를 보여준다.

💡 설명 가능 AI (XAI):
AI의 의사결정 과정을 인간이 이해할 수 있도록 설계하는 연구 분야


6. 알파고 이후의 DeepMind

알파고는 더 이상 존재하지 않는다.
DeepMind는 알파고를 은퇴시키고,
의학, 에너지, 물리학 등 실제 문제 해결로 초점을 옮겼다.

  • 단백질 구조 예측 AI: AlphaFold
  • 수학 증명 AI: AlphaTensor
  • 원자력 융합 제어 AI: DeepMind Fusion

이 변화는 하나의 선언이었다.

“AI는 이제 인간을 이기기 위한 것이 아니라, 인간을 도와주기 위한 것이다.”


📌 요약 정리

  • 데미스 허사비스는 체스 천재이자 인지과학자 출신 AI 연구자이다.
  • 그는 DeepMind를 설립해, 알파고로 인간을 이긴 최초의 AI를 만들었다.
  • 이세돌과의 대국 중 한 판에서 인간이 승리하며 AI의 한계를 드러냈다.
  • 그 승리는 DeepMind 내부에도 깊은 반성과 전환점을 남겼다.
  • 알파고 이후 DeepMind는 AI를 통한 실질적 문제 해결에 집중하고 있다.

🧾 참고 출처


📣 당신에게 묻습니다

당신은 알파고를 기억하시나요?
그날, 인간은 졌습니다.
하지만 단 한 판, 인간은 예측 불가능함으로 승리했습니다.
그 한 수는, AI에게도 풀리지 않는 질문이었습니다.

샘 알트먼과 일야 수츠케버

 

 

 

 

AI는 어떻게 인간의 언어를 이해하게 되었는가? | GPT의 기원과 OpenAI의 이야기

"AI는 어떻게 인간의 언어를 이해하게 되었는가?"

프롤로그: 불씨를 지핀 두 사람

2015년 겨울, 샌프란시스코의 어느 회의실. 노트북 한 대, 백지에 가까운 선언문, 그리고 두 남자.

샘 알트먼, 창업가이자 당대 최고의 스타트업 인큐베이터 'Y Combinator'의 수장이었다. 일야 수츠케버, 딥러닝 혁명을 실현한 조용한 수학 천재. 그는 구글 브레인 팀의 핵심 멤버였고, ‘트랜스포머’가 나타나기도 전부터 인공지능을 연구하던 인물이다.

그들이 택한 이름은 OpenAI. 목표는 단순했다. 그러나 무모했다. “모든 인류에게 이익이 되는 AGI(범용 인공지능)를 만들자.”

그리고 그 첫 실험은, 인간의 언어를 기계가 이해하도록 훈련시키는 것이었다.

1. OpenAI, "모두를 위한 인공지능"이라는 이상

당시 Google, Facebook, Amazon은 AI를 비밀리에, 독점적으로 개발하고 있었다. AI는 이미 자본과 권력의 영역이었고, 누구도 그 기술을 공유하려 하지 않았다.

샘은 그 흐름에 의문을 품었다. 그는 '기술은 모두의 것이어야 한다'는 이상주의자였다. 그래서 일론 머스크, 피터 틸, 링크드인의 리드 호프먼 등에게 전화를 돌려 10억 달러 규모의 비영리 AI 연구소를 세웠다.

“우리는 AI가 소수 기업의 이익이 아닌, 인류 전체를 위한 기술이 되길 원했습니다.”
— 샘 알트먼 (MIT Tech Review, 2015)

비영리. 논문은 공개. 기술도 공유. OpenAI는 그렇게 탄생했다.

2. 일야 수츠케버: 감정을 상상한 과학자

일야는 천천히 말하는 사람이었다. 늘 실험실에 틀어박혀 모델을 만들고, 수학 문제를 풀며, 기계에게 마음이 있을 수 있을지를 고민했다.

그는 이미지넷(ImageNet) 챌린지를 딥러닝으로 우승시킨 장본인. 그 당시에 이미 구글은 그를 붙잡고 싶어 안달이었지만, 그는 샘의 제안을 받아들인다.

왜?

“AI가 인간의 언어를 이해할 수 있다면, 언젠가 감정도 이해할 수 있지 않을까.”
— 일야 수츠케버 (2018, 뉴욕타임즈 인터뷰)

그는 기계가 마음을 갖게 될 날을 상상하고 있었다.

3. 트랜스포머의 도래, GPT의 기반이 되다

2017년, 구글의 연구팀은 혁명적인 논문 하나를 발표한다.

"Attention is All You Need" — 인간처럼 단어의 관계를 맥락에 따라 파악하는 모델, **트랜스포머(Transformer)**의 등장이었다.

OpenAI는 이 구조에 주목한다. 일야는 이 구조 위에 ‘사전학습 언어모델’을 얹는 실험을 시작했다. Generative Pre-trained Transformer, 줄여서 GPT.

첫 버전은 논문 하나로 조용히 통과됐지만, 그 가능성은 뚜렷했다. GPT-1, GPT-2, 그리고 곧 세상이 충격을 받을 GPT-3의 시대가 다가오고 있었다.

📌 참고 논문: Attention is All You Need (2017)


🧭 GPT 시리즈 연대표 요약

  • 2018: GPT-1 발표
  • 2019: GPT-2 (공개 보류)
  • 2020: GPT-3 발표 (1750억 파라미터)
  • 2022: ChatGPT 출시 (5일 만에 100만 유저)

4. GPT-2의 등장: 공개를 미룬 AI

2019년 2월. OpenAI는 GPT-2를 만들고도 발표하지 않았다. 이례적이었다. 비영리를 표방하던 그들이 **처음으로 ‘공개를 보류’**한 것이다.

그 이유는 하나. 너무 강력했기 때문에.

간단한 입력만 넣어도 소설처럼 긴 글이 척척 나왔다. 모방, 조작, 허위정보 생성… 악용될 가능성이 너무 명확했다.

“우리는 기계가 인간의 언어를 무기처럼 다룰 수 있다는 걸 알게 됐다.”
— 일야 수츠케버 (Wired, 2019)

이 발표 보류는 전 세계 AI 커뮤니티를 술렁이게 만들었다. GPT는 단순한 모델이 아니라, 새로운 기술적 시대의 시작이라는 것을 모두가 깨달았다.

5. GPT-3와 ChatGPT, AI가 문화가 된 날

2020년, GPT-3가 세상에 나왔다. 1,750억 개의 파라미터. 당시 기준 세계 최대의 언어모델.

그리고 2022년 11월, ChatGPT가 등장했다. 단 5일 만에 사용자 100만 명. 누구나 AI와 대화를 시작할 수 있었다. AI는 뉴스가 아니라, 일상이 되었다.

📌 GPT-3 논문: Language Models are Few-Shot Learners (2020)

6. 기술과 철학, 어긋나는 시선

OpenAI는 2015년, 기술의 윤리를 외쳤다. 하지만 2019년부터는 Microsoft의 대규모 투자를 받으며, **영리법인(OpenAI LP)**으로 전환한다.

샘은 기업 성장과 상업화를 선택했고, 일야는 내부에서 조용히 연구를 계속했다.

이 차이는 결국 2023년, 일명 **‘OpenAI 쿠데타 사건’**으로 폭발한다. 샘 알트먼의 해임. 그리고 불과 며칠 뒤의 복귀.

🔥 이 극적인 사건의 이면—OpenAI 쿠데타—는 다음 화에서 깊이 파헤쳐보겠습니다. (EP.04 예고)

에필로그: 우리는 매일 GPT와 이야기한다

샘 알트먼은 속도를 택했다. 일야 수츠케버는 의미를 택했다.

그들의 선택 위에서 만들어진 GPT는 이제 전 세계 수억 명이 매일 사용하는 기술이 되었다.

그 기술의 안에는, 인간의 언어, 인간의 사고, 인간의 역설이 담겨 있다.

GPT는 알고 있다. 우리가 무엇을 말하고 싶어 하는지를.


📌 요약 정리

  • OpenAI는 2015년 비영리로 출범했다.
  • 샘과 일야가 공동 창립했고, 트랜스포머 모델로 GPT를 개발했다.
  • GPT-2는 너무 강력해 공개가 지연되었다.
  • GPT-3, ChatGPT로 AI는 대중의 도구가 되었다.
  • 철학과 기술의 균열은 2023년 쿠데타로 이어진다.

📣 당신에게 묻습니다 GPT, 당신은 매일 쓰고 있습니다. 그 시작엔 어떤 사람들이 있었고, 어떤 선택이 있었을까요?

 

 

+ Recent posts