[MIT Technolgy Reviews] The messy, secretive reality behind OpenAI’s bid to save the world (2부)
ARTIFICIAL INTELLIGENCE
The messy, secretive reality behind OpenAI’s bid to save the world(2/5)
The AI moonshot was founded in the spirit of transparency. This is the inside story of how competitive pressure eroded that idealism.
By Karen Hao
February 17, 2020
- MIT Technolgy Reviews에 2020년 2월 17일, AI분야 기자 Karen Hao이 작성한 기사를 DeepL로 번역 후, “포괄적 요약”하고, “저의 의견”을 추가하여 작성한 내용
- 아주 긴 기사를 나름 5부로 나누어 OpenAI에 대해서 공부할 겸 정리해보았음
- 2022년 ChatGPT로 일반인들(나 포함)에게 알려지기 까지, 2019년 2020년 초에 OpenAI가 어떤 기업이였는지 알 수 있는 자료
- 만약 저작권에 문제가 있다면 바로 알려주세요!!
2015년 설립 당시, AI 개발과 실행에 드는 비용때문에 소수에게 권력이 집중되는 경향을 예측하여, 비영리기관이라는 업계의 이목을 집중시켜, 경쟁사와는 다른 출발한 것에 대해 실리콘밸리 사람들의 대단한 예측력과 사업추진력을 알수 있음
그리고 startup 기업이 초창기 목표와 비전을 지켜나가기 위해서 어떤 갈등이 있고, 어떻게 해쳐나가는지도 느껴질 수 있음
어떻게 OpenAI와 같은 기업을 우리가 기대할 수 있을까? 가장 중요한 인력확보? 그리고 투자자? 우리나라도 세계적인 경쟁력을 가진 기업들과 국가(정부)가 역할을 분담하여, AI에 대한 선택과 집중할 분야를 선정하여 투자할 필요가 있을 듯하다. 분명히 AI산업에서 우리가 들어갈 수 있는 틈새가 있을 것이며, 우리가 잘 하는 부분도 있을 것이기 때문이다. 아니면 다양한 기업과 국가들 사이에서 기술력이 아니라 관계력을 발휘할 수도…
OpenAI 외관, 내관
샌프란시스코 18번가와 폴섬 스트리트의 교차로에 위치한 OpenAI의 사무실
유서 깊은 이 건물은 칙칙한 회색 판넬과 틴티드 창문으로 이루어져 있으며 대부분의 블라인드가 내려져 있고, 과거 소유주였던 파이오니어 트럭 팩토리의 흔적인 “PIONEER BUILDING”이라는 글자가 빛바랜 빨간색 페인트로 모퉁이를 감싸고 있음
내부는 밝고 통풍이 잘되는 공간. 1층에는 몇 개의 공용 공간과 두 개의 회의실.
한 곳은 대규모 회의를 진행하기에 적당한 크기인 스페이스 오디세이, 다른 한 곳은 전화 부스처럼 꾸며진 인피니트 제스트라고 불리는 곳으로 제가 방문하는 동안 출입이 제한되는 공간

Greg Brockman
파란 하늘이 아름다운 날 브록먼을 만나러 도착한 날, 그는 긴장한 듯 경계하는 표정. “이렇게 많은 액세스 권한을 부여한 적은 처음입니다.”라고 그는 살짝 미소를 지으며 말합니다. 그는 캐주얼한 옷차림과, OpenAI의 다른 직원들과 마찬가지로 효율적이고 거침없는 사고방식을 반영하는 듯 덥수룩한 헤어스타일을 함.
올해 31세인 브록먼은 노스다코타의 취미 농장에서 자랐으며, “집중력 있고 조용한 어린 시절”을 보냈다고 설명. 소의 젖을 짜고, 달걀을 모으고, 독학으로 공부하면서 수학의 매력에 푹 빠졌으며, 2008년 수학과 컴퓨터 공학을 복수 전공할 생각으로 하버드에 입학했지만, 현실 세계에 뛰어들기에는 금세 불안해져 1년 후 자퇴하고 MIT에 입학했으나 역히 몇 달 만에 다시 자퇴했. 샌프란시스코로 이사한 후 그는 뒤도 돌아보지 않았음.
브록먼은 회사 전체 회의가 열리는 동안에는 저를 사무실로 데려나가서 점심을 먹게 했음. 길 건너편 카페에서 그는 강렬하고 진지하게, 그리고 경이로움에 가득 찬 목소리로 OpenAI에 대해 이야기하면서 종종 OpenAI의 사명과 과학사의 획기적인 업적 사이에서 유사점을 이끌어 냈음. 리더로서 그의 카리스마를 쉽게 느낄 수 있었음
그는 자신이 읽은 책에서 기억에 남는 구절을 이야기하면서, 밸리에서 가장 좋아하는 이야기인 미국 달 탐사 경쟁에 대해 집중적으로 설명(“제가 정말 좋아하는 이야기 중 하나는 청소부 이야기입니다.”라고 그는 유명하지만 아마도 위서일지도 모르는 이야기를 언급. “케네디가 청소부에게 다가가 ‘뭐 하는 거냐’고 묻자 청소부는 ‘사람을 달에 보내는 일을 돕고 있습니다’라고 대답했습니다.”)
또한 대륙 횡단 철도(“실제로는 전적으로 수작업으로 이루어진 마지막 거대 프로젝트였고… 엄청난 규모의 프로젝트였기 때문에 완전히 위험했습니다.”)와 토머스 에디슨의 백열전구(“저명한 전문가들로 구성된 위원회가 ‘절대 성공할 수 없다’고 말했지만 1년 후 그는 출하했습니다.”)도 언급

브록먼은 OpenAI가 얼마나 위험한 도박을 하고 있는지, 그리고 그것이 냉소주의와 의심의 눈초리를 불러일으킨다는 사실을 잘 알고 있으나, 하지만 그가 전하는 메시지는 분명 : “사람들은 자신이 원하는 만큼(얼마든지) 회의적일 수 있다. 이것은 대담한 도전의 대가이다”
OpenAI 초창기
초창기 OpenAI에 합류한 사람들은 그 에너지와 흥분, 목적 의식을 기억. 긴밀한 연결 속에서 소규모로 구성된 팀이었으며, 경영진은 느슨하고 비공식적으로 운영. 모두가 누구든 아이디어와 토론을 할 수 있는 평등한 구조라고 신뢰하였음.
집단적 신화를 구축하는 데 머스크의 역할도 적지 않았음. “그가 저에게 제시한 방식은 ‘이봐요, 알겠어요. AGI가 멀게 느껴질 수 있어요. 하지만 만약 그렇지 않다면?’이라는 식이었습니다.” UC 버클리의 피터 애빌 교수는 처음 2년 동안 여러 학생들과 함께 그곳에서 일했다고 회상. “‘향후 5년에서 10년 내에 이런 일이 일어날 확률이 1% 또는 0.1%라도 된다면 어떨까요? 아주 신중하게 생각해야 하지 않을까요?’라는 그 말에 공감이 갔습니다.”라고 그는 말함.
하지만 이러한 비공식성은 방향성의 모호함으로 이어지기도 했음. 2016년 5월, 알트먼과 브록먼은 당시 Google 연구원이었던 다리오 아모데이의 방문을 받았는데, 아모데이는 아무도 그들이 하는 일을 이해하지 못한다고 말했음. 뉴요커에 실린 기사에 따르면, 팀 자체도 알고 있었는지는 확실하지 않았음. 브록먼은 “지금 우리의 목표는… 최선을 다하는 것이며, 조금은 모호합니다.”라고 말함.
그럼에도 불구하고 아모데이는 몇 달 후 팀에 합류. 그의 여동생인 다니엘라 아모데이는 이전에 브록맨과 함께 일한 적이 있었고, 이미 OpenAI의 많은 구성원을 알고 있었음. 2년 후, 브록먼의 요청으로 다니엘라도 합류.
“우리가 아무것도 없이 시작했다고 상상해 보세요.”, “우리는 그저 AGI가 잘 되었으면 좋겠다는 이상만 가지고 있었습니다.”라고 브록먼은 말함.
Throughout our lunch, Brockman recites the charter like scripture, an explanation for every aspect of the company’s existence.
OpenAI의 영리화 조직 모델
15개월이 지난 2017년 3월, 경영진은 이제 더 집중해야 할 때라는 것을 깨달았고, 브록맨과 몇몇 핵심 멤버들은 AGI로 가는 길을 제시하는 내부 문서 초안을 작성하기 시작. 하지만 이 과정에서 치명적인 결함이 금방 드러났음. 팀은 이 분야의 트렌드를 연구하면서 비영리 단체로 남는 것이 재정적으로 불가능하다는 사실을 깨달았음. 이 분야의 다른곳들이 획기적인 결과를 얻기 위해 사용하는 컴퓨팅 리소스가 매 3.4개월마다 두 배씩 증가하고 있었음. 브록먼은 “(당면한 문제와) 관련성을 유지하려면” 이러한 기하급수적인 증가(ramp-up)에 대응하거나 이를 뛰어넘을 수 있는 충분한 자본이 필요하다는 것이 분명해졌다고 말함. 그러기 위해서는 빠르게 자금을 모으는 동시에 미션에 충실할 수 있는 새로운 조직 모델이 필요.
일반 대중과 대부분의 직원들은 알지 못하지만, 2018년 4월에 OpenAI가 헌장을 발표한 것은 이를 염두했던 것임. 이 문서에는 연구소의 핵심 가치를 다시 표현하되, 새로운 현실을 반영해 표현(language)을 미묘하게 바꿨음. “인류를 해치거나 권력을 과도하게 집중시키는 AI 또는 AGI의 사용을 피한다”는 약속과 함께, 자원의 필요성도 강조. “우리의 사명을 완수하기 위해 상당한 자원을 동원해야 할 것으로 예상한다”면서도 “광범위한 이익을 훼손할 수 있는 직원과 이해관계자 간의 이해 상충을 최소화하기 위해 항상 성실히 행동할 것”이라고 밝혔습니다.
브록먼은 “회사 전체가 일련의 원칙을 받아들이도록 하기 위해 내부적으로 직원들과 오랜 시간 반복적으로 논의했습니다.”“회사의 구조가 바뀌어도 변하지 않아야 하는 것들이었습니다.”라고 말함

이러한 구조 변화는 2019년 3월에 이루어졌는데, OpenAI는 비영리 단체의 일부인 이사회가 감독하긴 하지만 투자자의 수익을 100배로 제한하는 영리 법인인 ‘수익 상한제(capped profit)’ 부서를 설립함으로써 순수 비영리 단체의 지위를 버렸음. 얼마 지나지 않아 Microsoft가 10억 달러를 투자한다고 발표(이 금액이 현금과 Microsoft의 클라우드 컴퓨팅 플랫폼인 Azure에 대한 크레딧으로 나뉜다는 사실은 밝히지 않았음).
예상대로 이러한 움직임은 OpenAI가 본연의 임무에서 벗어나고 있다는 비난의 물결을 일으켰음. 발표 직후 Hacker News에 올라온 게시물에서 한 사용자는 100배 제한이 어떻게 제한이 될 수 있는지 물었는데, “구글의 초기 투자자들은 자본금 대비 약 20배의 수익을 얻었습니다.”라고 그들은 썼고, “구글보다 더 많은 크기의 수익을 내는 기업 구조를 갖게 될 텐데, 당신들은 ‘과도한 권력 집중’을 원하지 않는다고요? 어떻게 그렇게 할 수 있을까요? 권력이 자원의 집중이 아니라고 한다면, 정확히 무엇일까요?”
이러한 움직임에 많은 직원들도 비슷한 우려를 표명. 내부의 불안을 잠재우기 위해 경영진은 철저한 보안이 보장된 일련의 전환 문서의 일부로 FAQ를 작성. “OpenAI를 믿어도 되나요?” 한 질문에 “예”라는 대답과 함께 설명이 이어졌음