[삼성 이영진] 글로벌 AI/SW
8.15K subscribers
1.35K photos
8 videos
1.68K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
백악관, Genesis Mission 행정 명령 주요 내용

■ 요약

- 미국 정부는 AI 기반 과학기술 연구의 국가 총동원 프로젝트 선언. 목표는 (1) AI로 과학적 발견 속도 10–100배 가속, (2) 에너지, 반도체, 안보 분야의 전략적 우위 확보, (3) 연방 과학 데이터의 산업적 재활용 극대화

- DOE 중심으로 슈퍼컴퓨터 + 연방 데이터 + AI 에이전트 + 자동화 실험시설을 통합한 American Science & Security Platform 구축. 맨해튼 프로젝트급 국가 프로젝트로 포지셔닝하며, 과학·안보·산업 인프라 전반의 AI 전환 가속이 핵심.

■ 국가 전략 목적

- 과학적 발견 가속(Scientific Acceleration)
: 연방 과학 데이터셋 → Foundation Models → AI 에이전트 → 자동 실험/제조 → 반복 루프

- 기술 패권 경쟁 우위 회복
: AI, 반도체, 핵, 양자, 바이오 등 전략 분야에서 중국 및 기타 국가 대비 리드 확보

- 에너지 지배력(Energy Dominance)
: 핵융합, 핵분열 연구 자동화, 소재 탐색, 발전 인프라 R&D 가속

- 국가 안보 강화
: 국방 및 핵연구 인프라 포함. 데이터 및 모델 기반 예측, 시뮬레이션 기능 확장

- R&D ROI 극대화
: 수십 년간 쌓인 연방 연구 자산을 “AI-활용 가능한 형태”로 재정비

■ 컨트롤 타워

- DOE(에너지부): 미션 실질 운영, HPC, 데이터, 연구소, 클라우드 통합
- APST(대통령 과학기술보좌관): 부처 조정,전략 정렬
- NSTC(국가과학기술위원회): 범정부 R&D 활동 통합

■ 실행 로드맵 (법적 기한 포함)

- 60일: 국가적 과학기술 도전과제 20개 제시
- 90일: 연방 HPC, 스토리지, 네트워크 자원 조사
- 120일: 초기 데이터, 모델 패키지 정의
- 240일: 로봇 실험실, 자율 제조시설 조사
- 270일: 최소 1개 분야에서 플랫폼 초기 능력(IOC) 시연

■ The “American Science and Security Platform” 구조

미 정부가 구축하려는 핵심 AI-과학 슈퍼 플랫폼. 구성 요소는

1. Supercomputing → DOE 슈퍼컴퓨터 + Secure Cloud AI 컴퓨팅

2. AI Modeling/Agent Frameworks → 파운데이션모델 + 실험, 설계, 분석, 시뮬레이션 자동화 에이전트

3. Predictive & Simulation Toolchain → 소재 탐색, 에너지 반응, 양자·핵 시뮬레이션 등

4. Secure Data Lake → 연방 과학 데이터 + 합성 데이터 + 민간, 학계 데이터

5. Autonomous Labs/Manufacturing → 로봇 실험실, AI-augmented 제조 라인

6. 연방 안보 표준 기반 보안 레이어 → 기밀 처리 기준, 공급망 보안, 사이버보안

■ Core Challenge Domains (초기 20개 중 주요 분야)

- 첨단 제조(Advanced Manufacturing)
- 생명공학(Biotechnology)
- 핵심 소재(Critical Materials)
- 핵분열·핵융합(Nuclear Fission/Fusion)
- 양자정보과학(Quantum Information Science)
- 반도체·마이크로일렉트로닉스(Semiconductors/Microelectronics)

■ 민간·학계 기술 기업 참여 방식

- 공동연구(CRADA), 사용자 시설 파트너십, 모델, 데이터 공유 협약
- IP·라이선스, 상업화 조건을 표준화된 템플릿으로 제공
- 보안 심사, 접근 권한, 수출통제 준수 필수

■ 인력 Pipeline
- AI 기반 과학 프로그램 중심 펠로우십, 인턴십, Apprenticeship
- DOE 랩 및 연방 연구시설에 배치 → 플랫폼 활용 훈련

https://www.whitehouse.gov/presidential-actions/2025/11/launching-the-genesis-mission
2👍2
[삼성 이영진] 글로벌 AI/SW
앤스로픽, Claude Opus 4.5 출시 : 코딩, 에이전트, 컴퓨터 유즈 분야에서 최고 성능. 일상적 문서 작업, 슬라이드, 스프레드시트에서도 크게 개선. API 가격은 $5 및 $25/백만토큰 : AI 시스템 가능성의 기준을 다시 세우며, 향후 업무 방식의 변화를 미리보기하는 업데이트라고 평가 : Claude 개발자 플랫폼 1) API의 effort 파라미터 도입 → 작업에 맞춘 속도, 비용, 추론 깊이 설정 가능 2) 컨텍스트 압축…
앤스로픽, Claude Opus 4.5로 보여준 또 다른 진보

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

구글이 Gemini 3 Pro와 Nano Banan Pro에 대한 긍정적 평가와 TPU 관련 여러 소식을 곁들여 엄청난 파티를 열고 있는 와중에 앤스로픽이 Claude 4.5 Opus로 반격에 나섰습니다.

원래 앤스로픽이 잘하던 코딩, 에이전트 부문에서 SOTA를 달성했습니다. SWE Bench는 80%라는 이정표를 세웠네요.

정해진 2시간 제한 내 엔지니어링 과제 수행에서는 인간보다 높은 점수를 기록하기도 했습니다. 일반적 작업 능력도 개선되었습니다.

앤스로픽 측은 "AI 시스템이 할 수 있는 일의 기준을 다시 세우는 한 걸음이며, 앞으로 업무 방식이 어떻게 바뀌어 갈지 보여주는 미리보기"라고 자신감을 보였습니다.

보다 중요한 것은 API 가격이 66% 수준 인하된 것입니다. Opus 4.5는 인풋 $5 및 아웃풋 $25/백만토큰입니다(vs Opus 4.1 인풋 $15 및 아웃풋 $75/백만토큰)

모델 효율성 개선(토큰 사용량 절감)과 추론 인프라 확장이 주요하게 작용했습니다. 그래도 여전히 GPT나 Gemini 보다는 비싸네요

이외에 개발자 플랫폼(Effort 파라미터 도입, 컨텍스트 압축, 고급 툴 기능), Claude Code(Plan Mode 개선, 데스크탑 앱 지원) 업데이트를 진행했고,

Claude for Chrome을 Max 플랜 유저 대상으로 확장하고, 엑셀용 Claude의 베타를 확장하기도 했습니다. 다만 사용량 리밋은 여전히 그대로라는 초기 유저 피드백도 존재합니다.

더욱 강력해진 코딩 성능 + 3가지 클라우드 플랫폼을 통한 접근성 향상 + 낮아진 가격을 조합하면 사용량은 늘어날 수 밖에 없습니다.

한 차원 높아질 수요를 백업할 수 있는 캐파가 존재하느냐?의 문제로 귀결됩니다.

최근 앤스로픽이 전방위적 파트너십을 체결하고 있지만 아직 초기 단계이지요. 단기적으로는 기존 파트너인 AWS와 GCP(여기도 구글?) 수요 측면에서 긍정적 업데이트입니다.

구글의 AI 경쟁력이 대두되고 있지만, 경쟁 기업들이 모두 끝장난 것은 아닙니다(물론 비상이 걸리긴했지만요). 경쟁은 발전의 어머니라는 구절이 생각나네요

오픈AI → 구글 → 앤스로픽 → xAI의 모델 업데이트는 순환 고리처럼 이어지고 있습니다(원래는 메타도 있었는데..)

xAI Grok 4.2는 크리스마스 전후로 예상되고 있고, Gemini 3에 타격을 입은 오픈AI의 반격도 이어질 것입니다.

(2025/11/25 공표자료)
4👍2
AI 데이터센터 지연 책임 공방 심화와 긴장도 상승

■ 코어위브 vs 코어 사이언티픽

: 코어위브는 실적에서 서드파티 데이터센터 개발업체의 일시적 지연 언급. 업계에서는 대부분 코어 사이언티픽 지목

: 8개월 전 마이크로소프트는 텍사스 덴튼 데이터센터 지연 문제로 코어위브 계약 일부회수. 문제 시설은 코어 사이언티픽이 전력 공급 담당

: 코어 사이언티픽은 기존 25년에서 26년 초로 일정 지연을 2월 실적에서 언급

: 3월 오픈AI는 해당 시설 문제 해결을 기대하며 코어위브와 5년 120억 달러 계약 체결

: 코어 사이언티픽 CEO는 “한쪽은 지연 문제를 미리 공개하는데, 다른쪽은 마지막 순간에야 이를 알리니 혼란과 신뢰 저하를 낳을 수 있다”고 코멘트

: 많은 AI 데이터센터 일정이 현실적이지 않다고 지적. 발전기와 같은 핵심 설비를 매우 일찍 발주해 확보해야하고, 경험많은 시공사와 인력의 선 확보 필요

■ 오라클, 텍사스 애빌린 사례

: 올해 초 오라클 임원들은 텍사스 애빌린 현장에서 계약 마감 압박 심화에 따라 시공사에게 고성

: 많은 클라우드 계약에는 일정 지연 시 고객이 비용을 적게 지불하거나 서버 성능 미달 에 따른 비용 삭감 조항 존재

■ GPU는 도착했지만, 건물은 준비되지 않음

: 데이터센터 건설 일정이 늦어지는 동안, GPU 배송은 훨씬 빠르게 진행. 일부 기업은 GPU 랙 전체를 창고에 쌓아두고 납품 지시를 기다리는 상황

: 메타도 GPU 랙만 제외한 ‘사전 준비(staging)’ 방식으로 데이터센터를 먼저 지어놓고, 필요 시 빠르게 용량을 투입하는 전략으로 대응 중
👍4
Grok 5 vs 페이커?

일론 머스크, Grok 5의 라이브 비디오 입력, 실시간 컴퓨터 조작, 규칙을 읽고 실험하며 새로운 게임을 배울 수 있는 에이전트 기능 암시

2026년에 Grok 5가 LeagueOfLegends 최고의 인간 팀을 이길 수 있는지 한 번 확인해봅시다. 단, 다음과 같은 중요한 제약 조건을 둔 상태에서요:

1. 카메라로 모니터만 볼 수 있으며, 20/20 시력을 가진 사람이 볼 수 있는 것 이상은 보지 못한다.

2. 반응 속도와 클릭 속도는 인간보다 빠를 수 없다.

AGI의 이 요소를 해결하는 데 관심 있다면 xAI에 합류하세요.

참고로, Grok 5는 ‘지시사항을 읽고 직접 실험하는 것만으로’ 어떤 게임이든 플레이할 수 있도록 설계되어 있습니다.”
👍21
[삼성 이영진] 글로벌 AI/SW 헤드라인 (25/11/26)

■ 엔비디아, GPU가 구글의 AI 반도체보다 한 세대 앞서있다는 점 강조

■ 일론 머스크, Grok이 내년 1월까지 LM아레나 텍스트 리더보드 1위를 차지할 것으로 자신

■ 오픈AI, 챗GPT 음성 모드를 별도 화면에서 채팅 내 통합 인터페이스로 변경. 말하면서 응답 텍스트와 이미지, 지도 등 시각적 요소까지 실시간 확인

■ 퍼플렉시티, 페이팔 협력으로 미국 내 개인화 쇼핑 추천 기능과 Instant Checkout 기능 도입

■ 워너 뮤직, AI 음악 스타트업 Suno와 소송을 정리한 뒤 라인선스 계약 체결

■ 블랙 포레스트 랩스, Flux 2 이미지 생성 모델 공개

감사합니다.
2👍2
구글 딥마인드 다큐멘터리
〈The Thinking Game〉 (한글 자막 有)

관객을 딥마인드의 중심부로 이끄는 여정으로, 지능과 생명의 비밀을 밝히기 위해 노력하는 한 팀의 모습을 담아냅니다.

5년에 걸쳐 AlphaGo 제작진이 촬영한 이 다큐멘터리는 데미스 허사비스의 비범한 성장 배경이 어떻게 그의 ‘범용 인공지능(AGI)’에 대한 평생의 추구를 형성했는지 탐색합니다.

또한 복잡한 전략 게임을 정복한 이후, 50년 묵은 단백질 접힘 문제를 AlphaFold로 해결해 가는 과정 속에서 겪은 과학적 발견의 치열함과 기복을 생생히 기록합니다.

https://www.youtube.com/watch?v=d95J8yzvjbQ
👍3
알리바바(09988 HK, BABA US) F2Q26 실적 - 클라우드와 AI 성적표

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

알리바바는 전체 매출 2,478억 위안(+5%)로 컨센서스를 1.9% 상회했는데요. 다만 퀵커머스 사업 지출 및 AI 클라우드 인프라 투자 집중 영향으로 이익단이 아쉬운 모습이었습니다.

지속적으로 강하게 이어지는 AI 수요와 퍼블릭 클라우드 사용량 증가 기반으로 클라우드 인텔리전스 그룹 매출은 성장 가속화를 이어가고 있습니다(+6% → +7% → +13% → +18% → +26% → + 34%)

외부 고객 성장도 29%로 견조한 흐름이고, AI 제품의 세 자릿수 성장 기록은 당연하게도 9개 분기 연속으로 연장되었습니다.

알리바바는 고성능 AI 인프라 + 파운데이션 모델 + AI 개발 프레임워크 전반에 걸친 풀스택 AI 전략 강화를 지속하고 있습니다.

CapEx는 315억 위안(+80% YoY, -19% QoQ)을 기록했습니다. 최근 4개 분기 지출은 1,200억 위안 수준인데요

현재 투자 속도는 고객 수요를 충분히 충족시킬 수 없기 때문에 규모 확대를 배제할 수 없다는 코멘트를 남겼습니다.

이전에 언급했던 3년 3,800억 위안 투자도 현재 수요를 감안하면 다소 작다는 입장이네요

분기 변동성은 존재하겠지만, 지난 분기 대비 역성장한 측면에서는 공급망 이슈를 꼽아볼 수 있습니다.

AI 산업 내 여러 이슈에 대한 코멘트도 있었습니다.

AI 모델 성능이 지속 개선되며, 현재 스케일링 법칙 한계에 부딪혔다고 볼 만한 상황은 없다는 점을 강조했습니다.

모델이 강력해질 수록 현실 세계에서 수행할 수 있는 작업의 종류와 범위도 증가하게 되니까요

또한 신규 서버 배치 속도는 수요 증가 속도를 따라가지 못하고 있습니다.

향후 3년을 놓고보면 AI에 대한 수요는 명확한 성장 추세로 리소스 공급 부족 상태 지속을 전망했습니다.

미국 하이퍼스케일러들의 경우에 최신 GPU는 100% 가동되고 있고, 구세대 GPU도 풀 가동 중이라는 점을 고려하면,

AI 버블이라고 부를 만한 이슈는 보이지 않는다는 입장을 보였습니다.

알리바바는 AI+클라우드 중심의 기술 플랫폼 구축과 쇼핑과 일상 생활 서비스를 아우르는 포괄적 소비 플랫폼 구축의 전략 축 2가지를 강조하고 있습니다

알리바바 생태계 내에는 AI를 활용할 다양한 제품이 존재하고, 플랫폼 기반 시너지 창출 기대감은 여전히 유효합니다.

Qwen 앱은 높은 침투율과 고객 유지율을 보이고 있고, 향후 이커머스, 지도 내비게이션, 로컬 서비스와 통합해 일상생활을 위한 AI의 진입점으로 활용할 계획입니다.

12M FWD P/E 19.2배 수준으로 AI 및 클라우드 모멘텀을 고려하면 10월 고점(21.4배) 수준 회복도 시도해 볼 가능성이 있습니다.

(2025/11/26 공표자료, 컨센서스 및 밸류에이션 자료: Factset)
👍3
오픈AI, 30년 챗GPT 유료 사용자 2억 2천만 명 전망

: 지난 7월 기준 유료 구독자 3,500만 명(주간 활성 사용자 5%)

: ‘30년 주간 활성 사용자 26억 명 + Plus 구독자 2억 2천만 명 전망(8.5%)

: 최근 상향된 챗GPT 구독 전망치는 30년까지 누적 2,700억 달러(25년 100억 달러 → 30년 870억 달러)

: 사라 프라이어 CFO는 8월 챗GPT 콘텐츠 제한으로 사용 시간 소폭 감소 인정. 12월까지 연령 확인 소프트웨어 도입 계획

: 개인 무료 유저를 기업 계약으로 유도하는 엔터프라이즈 확대 전략. 현재 700만 명의 기업 사용자가 비즈니스 요금제 활용
👍21
순다르 피차이 x 로건 킬패트릭: Gemini 3 Release Note 팟캐스트

■ 매일매일 출시 중

: 지난 몇 주를 돌아보면, 거의 매일 무언가를 출시. Gemini 3, Nano Banana Pro, 영상 모델 등 모든 것이 한꺼번에 쏟아져 나오는 순간은 정말 특별하게 느껴짐

: Nano Banana Pro는 유저들이 단순히 모델을 쓰는 게 아니라 가지고 놀면서 내면에 숨겨져 있던 잠재적 창의성을 폭발시키고 있음

■ 구글의 10년 큰 그림

: 16년 피차이는 회사를 'AI First'로 전환하겠다고 선언. 배경에는 12년 Google Brain의 고양이 인식 논문, 14년 딥마인드 인수, 16년 알파고가 있었음

: 많은 사람들이 눈치채지 못했지만, 16년 5월에 첫 번째 TPU 발표. 그때 이미 또 다른 플랫폼의 변화가 올 것을 직감하고 하드웨어부터 준비

: 구글의 전략은 데이터센터 인프라(TPU/GPU)부터 모델(Gemini), 그리고 제품(검색, 유튜브)까지 수직으로 통합하는 것

: 생성 AI 붐이 왔을 때 밖에서 보기엔 구글이 조용하거나 뒤처져 보였을 수 있지만, 실제로는 내부에서 거대한 인프라의 '고정 비용'을 감당하며 덩치를 키우고 있었고, 이제 준비가 끝나서 폭발적으로 결과물이 나오고 있음

■ 제품 통합과 생태계: "Sim-shipping의 마법“

: 과거 구글은 검색 따로, 유튜브 따로 노는 느낌. 하지만 Gemini가 등장하면서 구글의 모든 제품을 관통하는 하나의 '줄기(Through-line)'가 형성

: 구글 내부뿐만 아니라 Replit, Figma 같은 외부 파트너사들도 Gemini 3 출시에 맞춰 동시에 기능을 업데이트. 이는 구글 혼자만의 혁신이 아니라, 전 세계 개발자 생태계가 구글의 시계에 맞춰 함께 돌아가고 있음을 의미

■ Nano Banana Pro와 인포그래픽

: 옛날에 파워포인트가 나왔을 때, 사람들은 슬라이드를 점점 더 많이 만들어서 정보를 확대. 하지만 이번 Nano Banana Pro의 인포그래픽 기능은 반대

: 복잡한 텍스트나 데이터를 아주 직관적인 한 장의 그래픽으로 '압축'해서 보여줍니다. 피차이는 이것이 구글의 미션(전 세계의 정보를 체계화하는 것)과 완벽하게 일치한다는 의견

: 도구가 어려워서 표현하지 못했던 사람들이, 이제 머릿속 아이디어를 그대로 현실로 꺼내 놓기 시작

■ 런칭 데이 루틴 & 성공 측정법

: 출시 당일에는 일부러 일정을 비워두고, X(트위터)에서 일반 유저들의 날 것 그대로의 반응을 확인. 그리고 엔지니어들이 모여 있는 상황실을 돌아다니며 대시보드의 QPS(초당 쿼리 수) 그래프를 어깨 너머로 훔쳐보는 식

■ Gemini 3 Flash가 역대급일 것

: 딥마인드 팀은 이제 약 6개월마다 메이저 업데이트를 내놓는 리듬을 형성. 3 Flash는 많은 사람에게 AI를 보급하는 핵심 모델입니다. 아마도 우리가 만든 모델 중 최고(Best one yet)가 될지도 모른다는 의견

■ 미래 베팅 (Moonshot)

: 지금 AI에 열광하듯, 5년 뒤엔 양자 컴퓨팅(Quantum Computing)에 열광하고 있을 것이라 예언

: 프로젝트 선캐처 (Project Suncatcher): 우주 데이터센터 건설 계획은 미친 것 같지만, 폭증하는 AI 연산량과 에너지 문제를 해결하려면 지구 밖으로 나가야 한다는 논리

: 목표는 2027년까지 우주 궤도에 TPU를 띄우는 것. 하사비스에게 "달 탐사 로버에 Gemini를 탑재해서 보내자"고 제안

■ 바이브 코딩(Vibe Coding)

: 구글 홍보팀(비개발자) 직원이 Gemini 3를 써서 아들에게 스페인어 동사 변형을 가르쳐주는 웹 앱을 단 한 번의 프롬프트(One-shot)로 만들어낸 이야기

: "기억하세요. 지금이 웨이모가 운전을 제일 못하는 시기이고, 지금이 AI 도구가 제일 별로인 시기입니다."

: NotebookLM과 새로운 기능 Flow를 언급하며, 저널리스트나 연구자들이 이 도구로 연구하는 방식이 바뀌고 있다고 자랑하며 마무리

https://youtu.be/iFqDyWFuw1c?si=ykNxDnMrqGJSnAG6
5👍2
일리야 수츠케버x드와르케시 파텔 팟캐스트 주요 내용

■ 요약

1) Scaling 시대에서 이제 리서치 병행 국면. GPU 많이 사는 회사보다 신규 알고리즘을 먼저 찾는 팀이 승리

2) 현재 LLM의 성능 한계는 ‘일반화 실패’와 ‘eval 과적합’이 원인

3) Value Function/감정 모델링·continual learning이 차세대 기술축

4) AGI는 ‘완제품’이 아니라 ‘학습 구조’ — Deployment = Training

5) SSI는 스케일 전쟁을 피하고 ‘새 원리’라는 황금 구역을 노림

6) 장기 안전은 Human Alignment → Sentient Alignment로 이동

7) 데이터 고갈 이후는 Self-play/Multi-agent가 핵심이지만 불완전

8) 결국 승자는 ‘연구 미학(Research Taste)’을 가진 조직


■ 패러다임 변환: Scaling → Research

: 2012–2020 (Research Era 1)
다양한 아키텍처 혁신(AlexNet, ResNet, Transformer) → 아이디어 기반 경쟁

: 2020–2025 (Scaling Era)
“데이터+컴퓨트 투하 = 성능 상승”법칙이 산업 전체를 지배. 기업 입장에서는 가장 낮은 리스크의 확실한 성장 공식

: 2025~ (Research Era 2)
데이터 포화, RL 비효율, 스케일링 한계가 명확해지며, 스케일을 키워도 딥한 leaps는 안 나오는 국면 도달.

: AI 경쟁의 초점이 GPU 구매력 → 새로운 학습 레시피 설계 능력으로 이동. 더 큰 클러스터를 사는 기업보다 더 나은 generalization 원리를 먼저 찾는 연구 조직이 우위 확보


■ LLM의 구조적 한계: Jaggedness(들쭉날쭉함) & 일반화 실패

: 어려운 코딩·수학 문제는 잘 푸는데 쉬운 버그 수정, 단순 논리에서 말도 안 되는 오류 반복.

근본 원인
1.RL의 단선화(Single-mindedness) - RL은 reward를 향한 단일 최적화 → 기본적 판단력 저하

2.Evals 최적화 편향(RL overfitting to eval) - 기업들은 런칭용 평가 점수 개선을 위해 RL 환경을 벤치마크 맞춤형으로 제작 → 일반화 실패

3.Pre-training의 고착성- 방대한 자연 데이터는 선택 여지가 없어서 안정적이지만, 데이터가 유한해지고, 똑같은 데이터로 다들 비슷해짐 → 모델 간 다양성 부족.

: 현재 LLM = 문제 10,000개 외워서 대회 1등하는 학생 vs 인간 = 100시간만 공부해도 원리로 실전 문제를 풀어내는 학생

: LLM의 “극단적 벤치마크 성능”이 왜 경제적 생산성으로 직결되지 않는지 설명하는 가장 중요한 지점


■ 기술적 돌파구: Value Function(가치 함수)와 Data Efficiency(데이터 효율)

: 인간은 LLM보다 데이터를 1/1000만만 보고도 모델보다 훨씬 강한 일반화 능력을 보여준다.

: 인간의 감정(emotion)이 사실상 진화적으로 코딩된 고효율 value function 역할. 체스에서 말을 잃는 순간 “아, 망했다”는 감각은 게임 종료 전에도 중간 단계 reward를 바로 제공.

: 현재 RL 문제는 보상(reward)이 episode 끝에서야 제공 → 효율 극악. 추론(Chain of Thought) 중간 단계에서“좋은 방향인지” 스스로 판단하는 회로가 부족.

: 앞으로의 “차세대 AI 경쟁”은 GPU 개수 경쟁이 아니라 고효율 value function + continual feedback 설계 경쟁으로 이동.


■ AGI의 재정의: “만물박사”가 아니라 “초학습자(Continual Learner)”

: 기존 AGI 정의 - 모든 task를 즉시 완벽히 수행하는 전지적 존재.

: 일리야의 AGI 정의 - 아직 모든 걸 모르지만, 어떤 업무 현장에 넣어도 미친 속도로 배우고 적응.

: AGI는 출시 순간 만들어지는 것이 아니라 배포(Deployment)가 곧 학습 과정. 의료·법률·엔지니어링 현장에 투입된 모델의 경험이 중앙 모델로 합산되며 경제 전체 규모의 지속적 지능 상승 발생


■ SSI 전략: Research-Only 조직의 계산적 우위

: 빅테크 compute의 대부분은 inference 서버, 고객 제품 지원, 다중 모달·제품 라인 → 연구에 쓰는 compute 비중은 극히 작음

: SSI는 대부분 연구와 실험→ 동일 자본에서도 per-dollar research compute는 충분히 경쟁력


■ Safety & Alignment: Sentient Life 정렬 + 점진적 공개

: 과거 정렬 철학: “조심해야 하니 은밀히 직행(straight-shot)하자”

: 현재: 강력한 모델을 세상이 직접 경험해야 사회·기업·정치가 현실적으로 대응할 수 있음. 실제 파워를 보지 않으면 안전 논의가 공허함.

: Alignment 방향성 - 단순 Human Alignment에서 Sentient Life Alignment로 확장. 미래엔 AI 개체 수가 인간을 압도 → 인간 중심 정렬은 장기적 지속 불가.


■ 데이터 고갈 시대: Self-Play, Multi-Agent, Synthetic Data

: 인터넷 텍스트는 유한 → AI가 스스로 데이터를 생성해야 함.

: Self-Play의 역할 - Debate, prover-verifier, multi-agent competition 형태의compute-only 데이터 생성 레이어가 필수

: 한계 - 협상·전략·게임 영역에는 효과적이지만 범용 일반화는 여전히 미해결

영상 : https://youtu.be/aR20FWCCjAs?si=ls8RXSTW4TKye3sc

https://www.dwarkesh.com/p/ilya-sutskever-2?open=false#%C2%A7ssis-model-will-learn-from-deployment
👍63
중국 규제당국, 바이트댄스의 엔비디아 반도체 사용 금지 보도

: 최근 몇 달 동안 중국 규제 당국은 바이트댄스 신규 데이터센터에서 엔비디아 반도체 사용을 금지

: 바이트댄스는 25년 중국 기업 중 엔비디아 반도체를 가장 많이 구매한 회사. 미국 제재 우려에 대량 비축

: 기존 로컬 기업에게 요구한 엔비디아 AI 반도체 신규 주문 중단보다 강한 조치. 바이트댄스는 사용하지 못하는 반도체를 쌓아두는 상황
👍5
[삼성 이영진] 글로벌 AI/SW 헤드라인 (25/11/27)

■ 미 의회, 중국 연계 사이버공작에 AI가 사용된 사실을 문제 삼으며 앤스로픽, 구글 클라우드 경영진을 청문회에 소환해 AI 기반 사이버위협과 방어체계 실태 조사 계획

■ 미 국방부, 10/7일 의회에 보낸 서한에서 알리바바, 바이두, BYD 등 중국 기업 8곳을 중국 군과 연계된 기업 리스트에 추가 판단

■ 퍼플렉시티, 유저 대화 기억 및 저장된 선호와 이전 대화 맥락 바탕으로 맞춤형 응답을 제공하는 메모리 기능 도입

■ xAI, Colossus 데이터센터 부근에 88에이커 규모의 태양광 발전소 건설 계획. 30MW 전력 캐파로 필요 전력량의 10% 수준

■ 오픈AI, 청소년 자살 조장 관련 소송에서 유저가 안전장치 우회했다는 주장. 책임이 기술이 아닌 무단 우회에 있다는 입장

■ 오픈AI, 챗GPT Enterprise 및 Edu 플랜과 API 서비스의 데이터 레지던시 서비스를 유럽, 영국, 한국, 인도 등 10개 지역으로 확대

■ MIT & ORNL 공동 연구팀, AI가 현재 미국 노동력의 약 11.7%를 대체할 수 있다는 분석

감사합니다.
👍41
중국 빅테크, 규제 우회를 위해 해외에서 AI 모델 학습(엄청 새로운 소식은 아니지만..)

: 알리바바, 바이트댄스는 싱가포르, 말레이시아 등 동남아 데이터센터에서 최신 LLM을 학습 중

: 2025년 4월 트럼프 행정부의 H20 판매 제한 이후 해외 학습 비중이 꾸준히 증가. 해외 데이터센터는 비(非)중국 소유 운영사가 보유한 시설을 임대하는 방식

: 이는 미국 규제상 합법이며, 이를 막기 위한 바이든 시절의 ‘Diffusion Rule’은 트럼프 대통령이 폐기, 우회 여지가 커짐

: 딥시크는 예외적으로 중국 내에서 모델을 훈련하는 몇 안 되는 기업. 미국의 수출 금지 발효 전에 대규모 엔비디아 GPU 클러스터를 선행 확보

: 현재는 화웨이를 포함한 국내 반도체 제조사들과 협력해 차세대 중국 AI 칩 최적화 및 공동 개발 중

: 추론 단계에서는 점차 중국산 AI 반도체 채택 증가

: 중국 기업들은 해외 시장 확장을 위해 동남아 데이터센터를 해외 고객 대상 서비스 제공에도 활용

: 다만 중국 규제로 인해 개인 데이터의 해외 반출이 금지되어 있으며, 고객 맞춤형 모델 학습은 중국 내에서만 수행 가능, 이는 주요 제약
👍511
딥시크, DeepSeek-Math-V2 공개

: 파라미터 6,850억 개의 수학 특화 모델로 V3.2-Exp 기반

: IMO 2025와 CMO 2024 금메달 수준. Putnam 2024에서는 118/200점 달성(참가자 최고 점수 90점)

: 기존 강화학습 기반 추론 능력 확장으로 LLM의 수학 문제 해결 능력은 성장했으나, 올바른 추론 과정 자체를 보장하지는 못하는 한계

: 이를 해결하기 위해 LLM 기반의 검증기(Verifier)를 먼저 만들고, 검증기를 보상 모델로 삼아 증명 모델이 자기 검증을 수행하는 학습 방식

https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
👍1
[삼성 이영진] 글로벌 AI/SW 헤드라인 (25/11/28)

■ 앤스로픽, Claude에서 이루어진 대화 로그 분석 기반으로 AI 도움으로 작업 시간이 80% 수준 단축되며, 경제 전체로 확대 시 10년 간 미 노동 생산성 성장률의 1.8% 상승 가능성 언급

■ 딥시크, 수학 특화 모델 Math-V2 공개. V3.2-Exp 기반. 높은 대회 성과와 달리 실제 성능은 별로라는 평가도 존재

■ 구글, AR 클래스 프로젝트 재개 보도. 26년 4분기 출시 계획

■ 알리바바, Qwen 모델이 탑재된 AR 클래스 쿼크(Quark) 판매 시작

■ 서비스나우, 보안 스타트업 Veza 인수 협상 보도. 규모는 10억 달러로 아이덴티티 보안 솔루션 제공

감사합니다.
👍31
[반.전] 글로벌 반도체, TPU가 불러온 폭풍은 일시적

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

최근 며칠 동안 구글, TPU, ASIC 관련 궁금증과 문의가 많은 것 같습니다. 그리고 AI 반도체 지각 변동을 우려하시는 분들까지 보입니다.

가뜩이나 AMD도 다시 경쟁에 뛰어 드는데, 때 아닌 TPU까지 치고 올라오다 보니, 엔비디아의 입지를 걱정하는 것이죠.

이같은 근거로 엔비디아 친구들(밸류체인)도 흔들릴 수 있다고 우려하며, 대표주들의 주가도 높은 변동성을 보여오고 있습니다.

물론 구글의 성과는 칭찬 받아 마땅합니다만, TPU는 ASIC으로서 결국에는 한계가 존재할 수밖에 없습니다.

구글 Gemini가 전 세계를 지배하며 모든 AI 수요를 독식하지 않는 이상, 범용성의 GPU를 100% 대체하기란 불가능에 가깝습니다.

경쟁이 심화되고는 있다지만, 경쟁은 ChatGPT가 등장하기 이전부터 있어 왔습니다. 갑자기 달라진 게 아닌 것이죠.

저희는 지금도 경쟁보다는 AI 확장에 집중할 필요가 있다고 생각합니다.

엔비디아냐 브로드컴이냐 승자를 가릴 게 아니라, 그냥 둘 다 성장한다는 것에 주목하는 것이죠. 실제로 양 사 컨센서스는 같이 상향 조정되고 있습니다.

이같은 저희의 생각과 복습 겸 과거부터 발간했던 자료들을 업데이트하여 총망라한 슬라이드를 준비했습니다.

아래 링크를 참고해 주시기 바랍니다.


감사합니다.

슬라이드 링크: https://bit.ly/3M5iqjA

(2025/11/28 공표자료)
👍4
오픈AI, 무료 유저 Sora 생성량 축소

: 일일 생성량 제한 기존 30회(10초 길이 기준)에서 6회로 축소. 유료 유저 제한은 그대로(Plus 30회, Pro 100회)

: GPU가 녹는 중,,, 필요하면 추가 결제해라(10회에 $4)! 부족한 캐파 관리와 추가 수익화를 동시에?
👍6😱1
오픈AI 데이터센터 파트너 차입금 1,000억 달러 보도 + Non Recourse 구조

→ 대출새로운 뉴스는 아니지만, Non Recourse 구조의 시사점

: 오픈AI는 초대형 계약의 비용을 충당하기 위해 상당한 부채 조달을 계획하고 있다고 밝혀왔으나, 재무 부담은 대부분 파트너와 대출 기관 전가

: 오픈AI는 B/S 상 부채가 거의 없음. 24년 미국 여러 은행과 40억 달러 규모 대출 한도를 확보했지만 아직 사용하지 않은 상태

: 연관 채무는 1,000억 달러를 상회할 가능성도 존재하며 향후 증가 전망. 소프트뱅크와 코어위브 자금 조달은 직접 연관이 명시되지 않음

: 데이터센터 대출은 위험을 차단하기 위해 SPV 기반 + 무소구(Non Recourse)

: Blue Owl과 Crusoe가 텍사스 애빌린 데이터센터 건설을 위한 대출에서 활용. JP모건이 100억 달러 대출 + 오라클이 17년간 해당 시설 임대하는 방식으로 상환

: 오라클이 임대료를 지급하지 않을 경우 JP모건이 토지와 데이터센터를 소유. 즉 대출 상환이 불가능할 시 SPV 자산만 회수. 스폰서 기업에게 추가로 책임을 묻지 못하는 구조

: Vantage는 텍사스와 위스콘신 사이트 대출을 위해 SPV 활용 준비(380억 달러). Blue Owl은 뉴 멕시코 사이트에서 일본계 은행들이 주도한 컨소시엄으로부터 SPV 기반 자금 조달(180억 달러). 유사한 구조 가능성

텍사스 위스콘신 https://t.iss.one/Samsung_Global_SW/2249

뉴멕시코 https://t.iss.one/Samsung_Global_SW/2343
👍31
일리야 수츠케버의 포스팅과 노암 브라운의 답글

현재 패러다임 스케일링만으로도 성능 향상은 계속되지만 AGI/ASI에 도달하려면 가까운 시기에 핵심 연구적 돌파구의 필요성에 대체로 합의. 논쟁의 본질은 ‘언제 오느냐’보다 ‘어떤 돌파구인가’의 이슈

■ 일리야 수츠케버

내가 했던 말 중 제대로 전달되지 않은 한가지 점:

- 지금의 것을 스케일링하면 계속해서 성능 향상은 일어날 것. 특히 멈추지 않을 것

- 하지만 중요한 어떤 것은 계속해서 부족한 상태로 남아 있을 것

→ 인터뷰에서 “스케일링의 한계” 해석이 과도하게 받아들여지자 이를 조정

■ 노암 브라운

소셜 미디어는 AI 논쟁을 두 가지 캐리커처로 몰아가는 경향

(A) LLM은 망했고 AI는 과대광고일 뿐이라고 생각하는 회의론

(B) 지금 이미 모든 재료가 갖춰졌고 초지능이 임박했다고 믿는 광신도

하지만 실제로 주요 연구자들의 발언(헤드라인이 아닌 원문)을 읽어보면, 놀라울 정도의 합의점이 존재

1) 현재 패러다임만으로도, 추가 연구 돌파구가 없어도, 경제사회에 막대한 영향을 주기에 충분할 가능성

2) 그러나 AGI/ASI에 도달하려면 더 많은 연구적 돌파구 필요(지속 학습, 샘플 효율성 등)

3) 우리는 아마 그 돌파구들을 찾게 될 것이고, 20년 안에 도달할 것

- Demis Hassabis: 5~10년
- François Chollet: 5년
- Sam Altman: ASI는 몇 천 일 안에 가능
- Yann LeCun: 10년
- Ilya Sutskever: 5~20년
- Dario Amodei: 가장 bullish, 2년 내도 가능하다고 했지만, 더 걸릴 수도 있다

이들 중 누구도 ASI가 환상이라고 말하지 않고, 혹은 100년 이상 걸릴 것이라고 말하지 않음

많은 의견 차이는 “어떤 돌파구가 필요한지”, “얼마나 빨리 올지”에 있음. 하지만 종합해 보면, 사람들은 생각보다 훨씬 많은 부분에서 의견이 일치한다.

→ 극단적 회의 vs 극단적 낙관의 프레임 잘못을 지적하며, 최상위 연구자들의 합의 3가지 언급
8👍3