샘 올트먼이 "10억 달러"를 꺼냈다 — OpenAI 재단, AI 안전과 질병 치료에 사상 최대 투자 선언

2026년 3월 26일
조회수 4
코멘트1

목차

OpenAI가 지갑을 열었습니다. 그것도 비영리 재단을 통해서. 3월 24일(현지 시각), OpenAI 재단은 향후 1년 동안 최소 10억 달러(약 1조 4천억 원)를 생명과학, 일자리, AI 회복탄력성, 지역사회 프로그램에 투자하겠다고 발표했습니다. 이는 지난해 10월 약속한 총 250억 달러 투자의 첫 단계입니다.

발표 직후 샘 올트먼 CEO는 자신의 X 계정을 통해 이렇게 밝혔습니다.

AI will help discover new science, such as cures for diseases, which is perhaps the most important way to increase quality of life long-term. AI will also present new threats to society that we have to address. No company can sufficiently mitigate these on their own; we will need a society-wide response to things like novel bio threats, a massive and fast change to the economy, extremely capable models causing complex emergent effects across society, and more. These are the areas the OpenAI Foundation will initially focus on, and in my opinion are some of the most important ones for us to get right. The Foundation will spend at least $1 billion over the next year.

Sam Altman (@sama), 2026년 3월 25일

공동 창립자가 '안전 책임자'로 — 자렘바의 이동이 의미하는 것

이번 발표에서 가장 주목할 대목은 인사입니다. OpenAI 공동 창립자 보이치에흐 자렘바(Wojciech Zaremba)가 'AI 회복탄력성(AI Resilience)' 부문 책임자로 재단에 합류합니다. 올트먼은 "세계가 안전에 대해 생각하는 방식을 회복탄력성 접근법으로 전환하는 것이 매우 중요하다"고 강조했습니다.

여기서 '회복탄력성'이라는 표현에 주목할 필요가 있습니다. 기존 AI 안전(Safety) 담론이 "위험한 것을 막는다"에 초점을 맞췄다면, 회복탄력성(Resilience)은 "위험이 발생했을 때 사회가 얼마나 빠르게 대응하고 회복할 수 있느냐"에 방점을 찍습니다. 이는 AI 안전 논의의 프레임 자체를 바꾸려는 시도로 읽힙니다.

AI 회복탄력성 프로그램은 세 가지 영역에 집중합니다.

  • 아동 및 청소년 안전 — AI 도구와 미성년자 간 상호작용의 안전성을 데이터 기반으로 연구하고 보호 장치를 마련합니다.
  • 생물보안 — 자연 발생 및 AI가 촉발할 수 있는 생물학적 위협에 대한 탐지·예방·대응 체계를 강화합니다.
  • AI 모델 안전성 — 독립적인 테스트·평가를 지원하고, 더 강력한 산업 표준을 마련합니다.

250억 달러 약속의 실체 — 4대 투자 축

OpenAI 재단의 투자는 네 가지 축으로 구성됩니다.

1. 생명과학 및 질병 치료
제이콥 트레페센(Jacob Trefethen)이 책임자로 합류합니다. 그는 Coefficient Giving에서 5억 달러 이상의 과학·보건 분야 기부금 집행을 총괄한 경험이 있습니다. 알츠하이머 연구, 공공 보건 데이터 인프라, 사망률이 높지만 자금 지원이 부족한 질병의 연구 가속화가 핵심입니다.

2. 일자리와 경제적 영향
시민사회, 노동조합, 경제학자, 정책 입안자와 협력해 AI로 인한 노동 시장 변화에 실질적인 해결 방안을 마련합니다.

3. AI 회복탄력성
자렘바가 이끄는 핵심 프로그램으로, 위에서 설명한 세 가지 영역에 집중합니다.

4. 지역사회 프로그램
2025년 12월 시작된 People-First AI Fund(총 4,050만 달러 배분)의 마지막 지원금이 곧 지급됩니다. AI 문해력과 시민 참여를 위한 비영리 단체들이 대상입니다.

왜 지금인가 — 비판과 맥락

이 발표의 배경에는 OpenAI의 구조적 긴장이 있습니다. 2019년 영리 자회사 전환 이후, 비영리 부문의 직접 지출은 2018년 5,100만 달러에서 2019년 330만 달러로 급감했습니다. 2024년에도 보조금 총액은 760만 달러에 불과했습니다. 기업 가치 1,300억 달러에 달하는 조직의 비영리 지출로는 초라한 수준이었습니다.

일론 머스크의 소송은 이 긴장을 상징합니다. 머스크는 올트먼이 비영리 설립 취지를 배신하고 상업적 이익을 우선시했다고 주장하며 캘리포니아에서 재판을 진행 중입니다. 2025년 비영리 자문위원회(노동운동가 돌로레스 후에르타 등 포함)가 자선 자원 배분의 대폭 확대를 권고한 것도 이번 결정에 영향을 미쳤습니다.

Fortune은 이번 10억 달러 서약이 "자발적 거버넌스 진화라기보다 외부 압력에 대한 대응"이라고 분석했습니다.

한국에는 어떤 영향이 있나

직접적인 한국 투자 계획은 아직 발표되지 않았지만, 몇 가지 주목할 점이 있습니다.

  • AI 안전 표준의 글로벌 파급 — 재단이 추진하는 독립적 AI 모델 테스트와 산업 표준은 한국의 AI 규제 프레임워크에도 참고가 될 수 있습니다. 지난해 한국이 AI 기본법을 통과시킨 만큼, 구체적인 안전 기준 설정에서 OpenAI 재단의 방향은 중요한 벤치마크가 됩니다.
  • 생명과학 협력 가능성 — 알츠하이머 연구와 공공 보건 데이터 인프라는 글로벌 협력이 필수입니다. 한국의 강점인 의료 데이터 인프라(건강보험공단 데이터 등)가 향후 협력 지점이 될 수 있습니다.
  • '회복탄력성' 프레임의 확산 — AI 안전을 '예방'에서 '대응과 회복'으로 확장하는 이 프레임은 한국의 AI 정책 논의에서도 반영될 가능성이 높습니다.

정리

10억 달러는 큰돈이지만, 1,300억 달러 가치 기업의 비영리 지출로 보면 1% 미만입니다. 250억 달러라는 총 약속이 실제로 이행될지, 아니면 구조 전환 과정의 방어적 제스처에 그칠지는 앞으로의 실행에 달려 있습니다.

다만, 공동 창립자 자렘바를 안전 부문 책임자로 배치한 것은 단순한 PR이 아닙니다. 이는 OpenAI가 '안전'이라는 화두를 회사 내부의 기술적 과제에서 사회 전체의 회복탄력성 문제로 확장하겠다는 의지의 표현입니다. AI가 만들 수 있는 위험을 '막는 것'에서 '대비하는 것'으로 — 이 프레임 전환이 업계 전체로 퍼질지 주목해야 합니다.

참고 자료

댓글 0