[GPT는 어떻게 세계를 바꾸고 있는가] 제1편: 탄생, 그리고 천재들의 등장

2022년 11월 30일, 인류는 새로운 존재를 만났다.

이름은 ChatGPT. 인공지능 챗봇이라는 이름을 달고 태어났다. 뛰어난 말재주와 대화에 대한 이해, 요약력, 사람을 능가하는 글쓰기 능력 등으로 ChatGpt는 단숨에 주목을 받았다. 무료로 공개되었기에 관심이 있는 사람은 누구나 이 인공지능과 접속해 대화할 수 있었다.

이후 몇 개월 만에 전 세계 1억 명 이상이 가입했고, ChatGpt 이름은 곧장 뉴스, 강의, 회의, 일상 대화 속에서 빠지지 않고 등장하게 된다.

그런데 이 존재는 어떻게 탄생했을까? 도대체 누가, 어떤 기술로, 무엇을 꿈꾸며 만들었을까?

인류의 현재와 미래를 바꾸어 버릴 21세기 최고 걸작의 탄생은, 2015년 샌프란시스코의 한 회의실에서 시작되었다.

OpenAI – AI의 미래를 놓고 싸운 사람들

ChatGpt를 탄생시킨 OpenAI는 인공지능을 독점하지 말고, 모두에게 안전하고 이롭게 나눠야 한다는 철학 아래 설립된 비영리 연구소였다.
창립 멤버에는 테슬라 CEO 일론 머스크, Y Combinator 대표 샘 올트먼, 딥러닝 선구자인 일야 수츠케버가 있었다. 이들은 구글이 AI를 독점하게 되는 것을 우려했고, 이를 견제할 ‘공공의 AI’를 만들겠다는 신념으로 뭉쳤다.

하지만 이상은 곧 현실의 벽에 부딪쳤다. 바로 막대한 자금 문제. GPT 모델을 훈련 시키기 위해선 수천 억 원이 드는 슈퍼컴퓨터가 필요했다. OpenAI는 전략적 전환을 결정한다. 비영리 조직 위에 영리 기업(OpenAI LP)을 만들고, 외부 투자를 유치한다.

그 첫 투자자가 바로 마이크로소프트(Microsoft)였다.

GPT 개발의 핵심 인물들

일야 수츠케버(Ilya Sutskever) – 캐나다 토론토대에서 제프리 힌튼에게 사사받은 딥러닝의 핵심 인물. 구글 브레인 초기 멤버로, 딥러닝 논문 중 가장 많이 인용된 학자 중 한 명. OpenAI 공동 창립자이자 GPT 시리즈 기술 총책.

샘 올트먼(Sam Altman) – 실리콘밸리의 천재 창업자이자 기획가. OpenAI를 단순한 연구소가 아닌 ‘AI 제국’으로 키운 장본인. 인류의 운명을 바꿀 AI를 만들겠다는 철학자적 기질과, 공격적 경영 전략이 공존하는 인물.

야쿠브 파흐키(Jakub Pachocki) – GPT-4 총책임자. 학습 알고리즘, 안정성, 성능 최적화를 이끈 젊은 천재로, GPT-4의 구조를 기밀로 유지하는 전략도 그가 주도했다.

이들은 단순한 코딩 기술자가 아니다. 언어학, 수학, 철학, 윤리학을 넘나들며, 인간 사고의 본질을 기계화하는 데 몰두하는 ‘21세기 르네상스인’들이다.

어떤 기술이 들어갔나 – GPT의 핵심 기술을 하나씩 풀어보자

1. Transformer – 언어의 의미를 공간처럼 이해하게 만든 혁신적 구조Transformer는 2017년 구글이 발표한 기술로, GPT의 뇌를 구성하는 핵심 기술이다. 기존의 AI 모델들은 문장을 한 줄씩 순서대로 읽는 데 반해, Transformer는 문장의 모든 단어를 동시에 보고, 그 안에서 어떤 단어가 더 중요한지를 스스로 판단할 수 있게 설계되었다. 이를 통해 문맥을 훨씬 정확하게 파악하고, 더 자연스럽고 일관된 문장을 만들어낼 수 있게 되었다.

2. 사전학습 (Pretraining) – 세상의 글을 모두 읽고 머릿속에 저장한다GPT는 처음부터 대화를 잘하지 않는다. 대신 인터넷에 있는 수많은 뉴스, 책, 블로그, 논문, 코드 등 텍스트를 수백억 단어 단위로 읽는 ‘훈련’부터 시작한다. 이걸 사전학습이라고 한다. 마치 아이가 책을 읽으며 언어를 배우듯, AI가 인간이 쓴 문장을 무작정 읽고, 그 속의 패턴과 규칙을 익히는 과정이다. 이 단계는 수천 개의 GPU가 몇 달간 돌아가는 고비용의 작업이다.

3. 미세조정 (Fine-tuning) – 인간이 쓰는 말로 다듬는 과정사전학습만 거친 GPT는 사실상 ‘말 많은 앵무새’와 같다. 그래서 실제로 우리가 대화하거나 업무에 쓸 수 있도록, 정제하는 두 번째 훈련 단계가 필요하다. 이때는 특정 작업(예: 질문 답변, 요약, 번역)에 맞게 훈련 데이터를 주고, 결과가 제대로 나오도록 매개변수를 조정하는 작업이 이뤄진다. 즉, 일반 언어 감각을 넘어 ‘유용한 AI’로 다듬는 과정이다.

4. RLHF – 사람이 가르쳐주는 방식으로 AI를 훈련시키지만 마지막 단계는 조금 특별하다. 그냥 데이터를 넣는 것이 아니라, 사람이 직접 “이 답변이 좋아요”, “이건 별로예요”라고 평가하면서 GPT를 훈련시키는 방식이다. 이를 RLHF(Reinforcement Learning with Human Feedback)라고 한다. 이 과정을 거치면 GPT는 단순한 통계 기계에서 벗어나 “사회적으로 바람직한 답변”을 고르는 법을 배우게 된다.

GPT는 기술이 아니라 인류의 질문이다

GPT는 단지 말 잘하는 로봇이 아니다.

그 뒤에는 기술 혁신을 이룬 개발자들이 있고, 그 위에는 인간 언어의 본질을 기계로 표현하려는 깊은 철학이 있다. 또한 그 탄생 과정엔 ‘이 기술을 누구 것이어야 하는가’라는 본질적 질문이 숨어 있다.

누구나 쓰는 기술을 누가 만들었는지 아는 것. 이것이 GPT 시대를 이해하는 첫걸음이다.

미디어원 l 이정찬 기자

▶ 다음 회 예고: 《GPT 제국 ② – 마이크로소프트, AI 전쟁에 뛰어들다》