EP.09 – 조슈아 벤지오: 포스트 오프 다크

 

EP.09 – 조슈아 벤지오: 포스트 오프 다크


✨ 조슈아 벤지오, 그는 누구인가요?

Yoshua Bengio(조슈아 벤지오)는 캐나다 몬트리올대학교의 컴퓨터 과학자입니다. Geoffrey Hinton(제프리 힌턴), Yann LeCun(얀 르쿤)과 함께 딥러닝의 3대 창시자로 불리며, 이 셋은 2018년 튜링상(컴퓨터 과학계의 노벨상)을 공동 수상했습니다.

그는 AI 기술을 단지 개발하는 것에 그치지 않고, 그것이 사회에 미치는 영향을 깊이 고민해온 인물입니다. 최근 들어 그는 "AI는 이제 기술만의 문제가 아니라, 인류 전체가 고민해야 할 가치의 문제"라고 말합니다.

“저는 AGI의 구조에 숨겨진 위협성이야말로 복지의 할당 문제와 연결된다고 봅니다.”

📝 주석: AGI(Artificial General Intelligence) 인간처럼 다양한 문제를 유연하게 해결할 수 있는 '범용 인공지능'을 말합니다. 지금의 AI는 특정 과제에만 특화되어 있지만, AGI는 인간 수준의 사고·학습·판단을 목표로 합니다.


🧠 대표 기술: 딥러닝의 이론적 기둥

조슈아 벤지오는 AI의 핵심 기술 중 하나인 **딥러닝(Deep Learning)**의 이론적 기초를 다진 학자입니다. 그는 캐나다 몬트리올에 **MILA(Montreal Institute for Learning Algorithms)**를 설립하고, 세계적인 연구자들을 배출했습니다.

📝 주석: 딥러닝(Deep Learning) 인간의 뇌 구조에서 영감을 받은 '인공 신경망'을 깊게 쌓아 정보를 학습하는 방식입니다. 이미지 인식, 번역, 생성형 AI 등에 널리 쓰입니다.

그는 기술이 발전하는 속도가 너무 빠르며, 그에 반해 사회의 안전장치나 윤리적 기준은 턱없이 부족하다는 점을 경고합니다. 이로 인해 그는 최근 들어 AI의 '위험관리 체계' 구축과 정책 제언에 더 집중하고 있습니다.

“저는 ‘제가 가장 두려워하는 것을 제가 직접 만들었다’고 고백했습니다.”


⚠️ 철학의 목소리: 책임 있는 AI를 향하여

벤지오는 AGI 개발에 있어 가장 중요한 것은 단순한 기술적 우월이 아니라, 사회적 책임과 윤리적 기준이라고 강조합니다. 그는 다음과 같은 메시지를 자주 전합니다:

  • “AI가 너무 강력해질 경우, 소수의 잘못된 결정이 사회 전체에 큰 피해를 줄 수 있다.”
  • “기술은 중립적이지 않다. 어떻게 설계하고 사용하는가에 따라 정의와 불평등을 만들어낸다.”

📝 주석: AI 안전성(AI Safety) AI가 의도치 않게 위험한 방식으로 작동하거나, 인간에게 해를 끼치지 않도록 하는 연구 분야입니다. 알고리즘의 투명성, 통제 가능성, 윤리 기준 등을 포함합니다.

그는 AI의 윤리와 통제를 위한 글로벌 가이드라인을 제안하며, 기술의 폭주를 막기 위한 제도적 장치를 요구하고 있습니다. 이러한 활동은 캐나다와 유럽의 AI 규제 정책에 영향을 주고 있습니다.


🔍 현재의 활동: 기술보다 가치 중심으로

벤지오는 현재 기술 그 자체보다, 기술이 어떤 가치를 따를 것인가에 관심을 두고 활동하고 있습니다. 그는 MILA를 기술 개발 중심에서 AI 윤리·정책·사회적 영향 분석 중심으로 전환해왔습니다.

또한 그는 다양한 국제 위원회와 윤리 자문단에서 활동하며, AI의 민주적 사용과 시민 참여를 강조하고 있습니다. 대표적으로 그는 유엔 AI 안전성 위원회 및 OECD의 AI 정책팀과 협력하여, 글로벌 기준 수립에도 힘을 보태고 있습니다.


🧭 철학자의 마음을 가진 과학자

조슈아 벤지오는 자신이 만든 기술에 대해 두려움 없이 되돌아보고, 더 나은 방향으로 이끌 책임이 있다고 믿는 인물입니다. 그는 기술의 힘을 누구보다 잘 알기에, 그만큼 조심스럽고 신중하게 다뤄야 한다는 메시지를 우리에게 던지고 있습니다.

“AI는 단순히 코드를 짜는 기술이 아닙니다. 사회 전체가 함께 고민해야 할 철학이자 선택입니다.”

그의 말처럼, AI의 미래는 기술자가 아닌 우리 모두의 손에 달려 있습니다.

 

EP.08 – 얀 르쿤: 열린 AI를 향한 신념
EP.08 – 얀 르쿤: 열린 AI를 향한 신념

EP.08 – 얀 르쿤: 열린 AI를 향한 신념


✨ 얀 르쿤, 그는 누구인가요?

얀 르쿤(Yann LeCun)은 프랑스 출신의 컴퓨터 과학자입니다.

딥러닝이라는 말을 들어보셨나요? 현재 AI 기술의 핵심이 되는 이 딥러닝을, 그는 Geoffrey Hinton, Yoshua Bengio와 함께 만든 개척자 중 한 명입니다. 이 세 사람은 2018년, '컴퓨터 과학계의 노벨상'이라 불리는 튜링상을 공동 수상하기도 했죠.

그는 현재 **Meta(메타)**의 수석 AI 과학자로, Meta의 AI 기술 개발 방향을 이끌고 있습니다.

"AI는 모두가 함께 만들고 나눠야 합니다."

실제로 그는 2024년 TIME 인터뷰에서 이렇게 말했습니다:

“AI는 오픈소스로 가야 합니다. 우리가 다양한 언론이 필요한 이유처럼, 다양한 AI 어시스턴트도 필요하니까요.”

기술은 감추기보다 가능한 한 널리 공유되어야 한다는 것이 그의 철학입니다.


🧠 그가 만든 대표 기술: CNN

얀 르쿤의 가장 유명한 업적은 **합성곱 신경망(CNN, Convolutional Neural Network)**입니다.

CNN은 지금 우리가 사용하는 AI 기술 중 다음과 같은 곳에 쓰입니다:

  • 얼굴 인식
  • 자율주행차의 도로 인식
  • 의료 영상 진단

📝 주석: 합성곱 신경망(CNN)이란? 이미지를 숫자로 바꿔서, 기계가 사물이나 패턴을 인식할 수 있게 만든 신경망 구조입니다. 사람의 시각 신호 처리 방식에서 영감을 받아 만들어졌어요.

이 기술은 1990년대 초부터 연구됐지만, GPU(그래픽 처리 장치)가 발전한 2010년대에 본격적으로 빛을 발했습니다.


🔓 AI는 모두의 것이어야 합니다

얀 르쿤은 기술이 소수에게 독점되는 것을 매우 경계합니다. 그는 다음과 같은 생각을 분명히 밝혔습니다:

  1. AGI는 한 기업이 독점해선 안 된다.
  2. AI 연구는 공개되어야 하며, 모두가 접근할 수 있어야 한다.
  3. 공포를 자극하는 마케팅은 AI 발전을 방해할 수 있다.

📝 주석: AGI(Artificial General Intelligence)란? 인간처럼 '넓고 유연한 사고'가 가능한 범용 인공지능을 말합니다. 단순한 챗봇이 아니라, 창의력·판단력·자기학습 능력을 모두 갖춘 AI죠.

이러한 철학은 Meta가 AI 기술을 오픈소스로 공개하는 데 큰 영향을 주었습니다.

대표적인 예시는 다음과 같습니다:

  • LLaMA (2023년 2월 공개)
    초거대 언어 모델로, 연구자들을 위한 고성능 오픈 모델입니다. 르쿤은 공개 당시,
    _“LLaMA는 오픈사이언스와 연구 민주화를 위한 메타의 약속입니다.”_라고 밝혔습니다.
  • Segment Anything (2023년 4월)
    클릭 한 번으로 이미지 속 객체를 분리하는 최초의 범용 비전 모델입니다.
    “이 모델이 컴퓨터 비전 연구를 가속하고, 완전히 새로운 응용 분야를 열길 기대합니다.”
  • DINOv2 (2023년)
    라벨이 없는 이미지에서도 의미 있는 특징을 스스로 학습하는 비전 AI.
    “자, 오픈소스 AI로 나아갑시다!” 라며 Apache 2.0 라이선스로 완전 공개했습니다.

그는 Threads와 인터뷰 등에서 지속적으로 말했습니다:

“공개 연구와 오픈소스의 힘은, 모두가 그것으로부터 이익을 얻을 수 있다는 점에 있습니다.”

또한 그는 오픈소스 AI의 미래를 리눅스에 비유하며,

“리눅스가 우리 모두에게 혜택을 준 것처럼, AI도 그렇게 될 것입니다.” 라고 강조했습니다.


⚖️ 다른 인물들과의 차이점

우리가 앞서 다룬 AI 인물들은 공통적으로 '위험한 AI'에 대해 경고했습니다.

  • 샘 알트먼: 강력한 AI는 규제가 필요하다고 주장
  • 일야 수츠케버: AGI는 반드시 통제되어야 한다고 강조
  • 엘론 머스크: AI가 인류를 위협할 수 있다고 경고

하지만 얀 르쿤은 이들과 다릅니다. 그는 말합니다:

"AI가 무섭다고요? 오히려 제대로 사용하지 않는 게 더 무서워요."

그는 AI를 '위험한 존재'로 바라보지 않습니다. 대신, 기회를 열어주는 도구로 생각합니다.


🔍 지금은 어떤 일을 하고 있을까요?

얀 르쿤은 현재 Meta에서 다음과 같은 역할을 하고 있습니다:

  • Meta의 장기 AI 전략 수립
  • 연구 조직 FAIR (Facebook AI Research) 창립 및 리더십
  • 다양한 오픈소스 AI 프로젝트 이끌기

그는 여전히 활발히 활동 중이며, 트위터(X)와 Threads에서도 자신의 견해를 자주 밝히고 있습니다. 특히, AI의 개방성과 교육의 기회에 대해 끊임없이 목소리를 내고 있습니다.


🧠 정리하며

얀 르쿤은 단순한 기술자가 아닙니다. 그는 과학자이자 철학자이며,

기술보다 사람을 중심에 놓는 개발자입니다. 그의 신념은 단순하지만 강력합니다:

"AI는 모두가 함께 만들어야 할 기술이다."

그가 열어둔 문을 통해, 더 많은 사람이 기술에 접근하고, 함께 발전시킬 수 있습니다.

 

EP.03 – DeepMind의 철학자: 데미스와 알파고
EP.03 – DeepMind의 철학자: 데미스와 알파고

EP.03 – DeepMind의 철학자: 데미스와 알파고

"기계는 왜 인간을 이기고자 했는가?"


프롤로그: 바둑판 위의 질문

2016년 3월, 세상은 충격에 빠졌다.
인공지능이 인간 바둑 챔피언을 이긴 것이다.

그 주인공은 알파고(AlphaGo), 그리고 그 배후에 있는 조직은 DeepMind.
그리고 이 모든 계획을 세운 중심엔, 한 사람의 과학자가 있었다.
그의 이름은 데미스 허사비스(Demis Hassabis).

그는 단지 AI를 이기게 만든 것이 아니라,
**인간의 지능이란 무엇인가?**라는 질문을 기계에게 던진 사람이었다.

💡 DeepMind는 영국에서 시작된 인공지능 연구 기업으로, 2014년 Google에 인수됨. 인간 수준의 지능을 목표로 연구 중.


1. 체스 천재에서 인공지능 철학자로

데미스 허사비스는 13세에 체스 마스터가 되었고, 17세에 게임 개발을 시작했다.
옥스퍼드와 UCL에서 인지신경과학을 공부했고, 인간 기억의 메커니즘을 연구했다.

그는 질문했다.
기억, 상상, 사고… 인간 지능의 구조를 기계가 모방할 수 있을까?

이 질문은 DeepMind의 철학이 되었고, 그 첫 번째 실험이 바로 알파고였다.


2. 알파고, ‘이기기 위해 태어난 AI’

알파고는 단순히 규칙 기반 프로그램이 아니었다.
그것은 딥러닝과 강화학습을 결합한, 자기 훈련형 AI였다.

  • 수백만 번의 대국을 스스로 반복하며,
  • 기존 인간 기보를 학습하며,
  • 인간이 두지 않는 수를 ‘상상’해 냈다.

그 결과, 2016년 3월, 이세돌 9단과의 대국에서 4:1 승리를 거둔다.

이 승리는 전 세계에 충격을 주었다.
“인간만의 영역”이 무너진 것 같았다.

💡 강화학습(Reinforcement Learning):
AI가 시행착오를 통해 보상을 최대화하도록 학습하는 방식


3. 단 한 판, 인간이 AI를 이긴 날

그런데 모두가 잊지 못하는 단 한 판이 있다.
2016년 3월 13일, 알파고와의 4국까지 전패했던 이세돌은 제5국에서 승리한다.

그 판에서, 그는 아무도 예상하지 못한 수를 둔다.
바로 78번째 수. 해설자도, AI도, 관중도 멈춰섰다.

알파고는 흔들렸다.
그 수는 AI의 계산 속 확률 분포상 천 번 중 한 번도 선택하지 않을 확률이었다.

“그 수는 우리 모델이 예측하지 못한, 인간 고유의 직관이었다.”
— 데미스 허사비스, 《AlphaGo》 다큐멘터리 中

그날, 인간은 한 판을 이겼다.
그러나 더 깊은 의미는 그 승리보다, AI가 이해하지 못한 수에 있었다.

그건 수학이 아니라 감각이었다. 계산이 아니라 맥락이었다.

그 순간, 우리는 알았다.
인공지능이 ‘이길 수 있는 존재’가 되었을지라도, 아직 ‘이해하는 존재’는 아니라는 것.

그날의 78수는 인간이 AI에게 던진 질문이자 선언이었다.
“우리는 여전히 예측 불가능한 존재이다.”

그리고 데미스는 그 순간, 다시 질문을 던진다.

“AI는 정말로 ‘이해’할 수 있는 존재인가?”


3.5 알파고 팀 내부의 반응과 데미스의 고백

이세돌이 승리한 날 밤, DeepMind 내부는 침묵에 가까웠다.
기술자들은 78수의 의미를 되짚으며, “우리가 놓친 건 무엇인가”를 다시 검토했다.

어떤 이는 “AI는 승리를 배웠지만, 예외를 배우지는 못했다”고 말했고, 다른 이는 “AI가 감히 인간의 상상력을 예측하려 했던 건 오만이었다”고 적었다.

그리고 데미스는 조용히 말했다.

“그날 밤, 나는 오히려 안도했다. 우리는 아직 인간을 완전히 이해하지 못한다는 사실이, 나에겐 위로였다.”

그 한 판의 패배는 DeepMind에게 기술의 한계이자 철학의 출발점이 되었다.


4. DeepMind는 왜 게임을 연구하는가?

데미스는 말했다.

“게임은 우주의 축소판이다.
규칙, 선택, 전략, 창의성… 모두 존재한다.”

DeepMind는 알파고 이후에도 다양한 게임에서 AI를 실험했다.

  • 알파스타(Starcraft II)
  • 도타(DOTA 2)
  • 아타리 게임 57종

이 실험들은 단순한 엔터테인먼트가 아니었다.
그는 AI가 복잡한 환경에서 인간처럼 학습할 수 있는지를 증명하고자 했다.


5. 철학자 데미스의 질문: "AI는 생각하는가?"

데미스는 기술자이면서도 철학자였다.
그는 AI의 윤리적 사용, 기억 시스템, 자기반성 능력에 깊은 관심을 두었다.

그는 단순한 자동화가 아닌,
**“의도를 가진 지능”**을 만들고자 했다.

“우리는 AI가 단지 똑똑해지는 것에 관심이 없다.
AI가 책임감 있고 이해 가능한 존재가 되길 바란다.”
— 데미스 허사비스, 2020

이 발언은 DeepMind가 기술 개발만큼이나,
윤리와 책임, 설명 가능성을 연구하는 이유를 보여준다.

💡 설명 가능 AI (XAI):
AI의 의사결정 과정을 인간이 이해할 수 있도록 설계하는 연구 분야


6. 알파고 이후의 DeepMind

알파고는 더 이상 존재하지 않는다.
DeepMind는 알파고를 은퇴시키고,
의학, 에너지, 물리학 등 실제 문제 해결로 초점을 옮겼다.

  • 단백질 구조 예측 AI: AlphaFold
  • 수학 증명 AI: AlphaTensor
  • 원자력 융합 제어 AI: DeepMind Fusion

이 변화는 하나의 선언이었다.

“AI는 이제 인간을 이기기 위한 것이 아니라, 인간을 도와주기 위한 것이다.”


📌 요약 정리

  • 데미스 허사비스는 체스 천재이자 인지과학자 출신 AI 연구자이다.
  • 그는 DeepMind를 설립해, 알파고로 인간을 이긴 최초의 AI를 만들었다.
  • 이세돌과의 대국 중 한 판에서 인간이 승리하며 AI의 한계를 드러냈다.
  • 그 승리는 DeepMind 내부에도 깊은 반성과 전환점을 남겼다.
  • 알파고 이후 DeepMind는 AI를 통한 실질적 문제 해결에 집중하고 있다.

🧾 참고 출처


📣 당신에게 묻습니다

당신은 알파고를 기억하시나요?
그날, 인간은 졌습니다.
하지만 단 한 판, 인간은 예측 불가능함으로 승리했습니다.
그 한 수는, AI에게도 풀리지 않는 질문이었습니다.

+ Recent posts