[삼성 이영진] 글로벌 AI/SW
7.48K subscribers
1.19K photos
8 videos
1.42K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
[삼성 이영진] 글로벌 AI/SW
오라클, 텍사스 애빌린 사이트 관련 입장 최근 애빌린 부지에 대한 일부 언론 보도는 사실이 아니며 부정확합니다. 첫째, Crusoe와 Oracle은 긴밀히 협력하여 텍사스 Abilene에서 세계 최대 규모 중 하나의 AI 데이터센터를 기록적인 속도로 구축하고 있습니다. 현재 두 개의 건물은 완전히 가동 중이며, 나머지 캠퍼스 건설도 계획대로 진행되고 있습니다. 둘째, Oracle은 OpenAI와의 약속을 이행하기 위해 추가로 4.5GW 규모의 용량에…
오라클의 추가 해명

최근 우리 데이터센터에 대한 일부 언론 보도는 AI 데이터센터가 어떻게 구축되고 운영되는지에 대한 근본적인 오해를 반영하고 있습니다.

오라클의 AI 데이터센터는 현재와 미래 모두를 고려해 액체 냉각, 더 높은 하드웨어 밀도, 그리고 다양한 공급업체의 여러 세대 하드웨어를 지원하도록 설계되어 있습니다.

실제로 기존 AI 데이터센터에서 하드웨어를 업그레이드하는 것은 기존 집에 새 냉장고를 설치하는 것과 비슷합니다.

기술이 발전할 때마다 건물 구조를 다시 지을 필요는 없습니다.

우리의 핵심 거점인 텍사스 애빌린 사이트는 일정대로 진행되고 있으며, 이미 200MW가 가동 중입니다. 이 부지의 계획된 용량이 지연되고 있다는 주장은 사실과 다릅니다.

오라클은 자본을 투입하기 전에 AI 인프라 투자와 고객 수요를 정밀하고 규율 있게 맞추는 접근 방식을 취하고 있습니다.

우리는 전 세계적으로 부지를 계속 평가하고 있으며, OCI에 대한 증가하는 수요를 지원하기 위해 고객 및 파트너와 긴밀히 협력하고 있습니다.


→ 추가 보도에 따르면 오픈AI의 확장 계획 철수 배경에는 동일 데이터센터 부지에 다른 세대의 엔비디아 칩을 동시에 배치하는 것을 원하지 않았기 때문. 다만 이러한 방식 선호에 대해서는 구체적 내용 x

https://t.iss.one/Samsung_Global_AI_SW
👍4
저커버그-알렉산더 왕, 배제 루머에 대응

: 메타 리얼리티 랩스 내 Applied AI 엔지니어링 그룹 신설 이후 저커버그가 알렉산더 왕을 배제했다는 보도

→ 이후 저커버그는 Thread에 알렉산더 왕과의 셀카 업로드

: 메타 커뮤니케이션 측에서도 잘못된 정보라고 반박. 유사한 내용이 보도된 이후 정정되었는데, 초기 부정확한 보도가 재활용되고 있다는 내용

: 알렉산더 왕은 신규 AI 조직 구축에 핵심 역할을 했으며, 여전히 주요 프로젝트를 이끌고있다고 강조. 신규 팀도 MSL과 협력하는 구조

https://t.iss.one/Samsung_Global_AI_SW
👍3
중국 AI 기업의 OpenClaw 기반 서비스

: 문샷 AI — KimiClaw
→ Kimi 모델 기반 OpenClaw 에이전트 서비스. 브라우저에서 실행되는 클라우드형 자율 에이전트. Zero-Code / One-Click development 지원

: 미니맥스 — MaxClaw
→ MiniMax 모델 기반 OpenClaw 에이전트 서비스. 협업툴과 연동되는 업무 자동화 에이전트. always-on 형태로 백그라운드에서 지속 실행

Z. ai — AutoClaw
→ GLM 모델 기반 OpenClaw 에이전트 서비스. 멀티 에이전트 오케스트레이션, 실험 자동화, 코드 생성 및 데이터 분석 기능 등

: 알리바바 — CoPaw
→ Qwen 모델 기반 OpenClaw 에이전트 플랫폼. 알리바바 클라우드 인프라와 결합된 에이전트 호스팅 서비스. 클라우드 원클릭 배포, API 연동, 기업용 에이전트 구축 지원 등

: 바이트댄스 — ArkClaw
→ Volcano Engine 기반 Doubao 모델을 연결한 OpenClaw 에이전트 서비스. API 호출 기반 agent runtime

: 텐센트 — WorkBuddy
→ 기업 협업 제품군(WeCom 등)에 통합되는 OpenClaw 기반 업무 에이전트. 텐센트 클라우드 인프라 활용. 업무 자동화, 문서 생성, 데이터 분석 등

: 샤오미 — Miclaw
→ MiMo 모델 기반 AI 에이전트. 시스템 통합, 개인화 이해, 생태계 연결, 자기 진화 등을 통해 사용자 상호작용 방식을 재정의. 현재 초대 기반 제한 베타로 공개됐으며 Xiaomi 17 시리즈 사용자 우선 제공

: 바이두 — OpenClaw 검색 앱 통합
→ OpenClaw AI 에이전트를 Baidu의 검색 앱에 직접 통합. 약 7억 명 월간 사용자가 검색 앱에서 바로 AI 에이전트를 호출해 일정 관리, 파일 정리, 코드 작성 등 작업 자동화 가능

https://t.iss.one/Samsung_Global_AI_SW
1
엔비디아-Thinking Machines Lab, 다년간의 전략적 파트너십 발표

: 엔비디아 Vera Rubin 시스템을 최소 1GW 규모로 배치 목표. 내년 초 배치 시작 예정

: 캐파는 프론티어 모델 학습과 대규모 맞춤형 AI 플랫폼 구축에 사용

: 엔비디아 아키텍처에 최적화된 학습 및 서빙 시스템 공동 설게, 커뮤니티 내 프론티어 AI와 오픈 모델 접근성 확대 노력

: Thinking Machines Lab의 장기 성장 지원을 위한 투자도 포함(규모 공개 x). 엔비디아는 시드 라운드에 참여한 바 있음

: Thinking Machines Lab은 오픈AI CTO 미라 무라티가 설립. 핵심 제품은 기업의 모델 파인튜닝 및 커스텀을 지원하는 Tinker

https://blogs.nvidia.com/blog/nvidia-thinking-machines-lab/
2👍1
[삼성 이영진] 오라클(ORCL) F3Q26 실적 요약

■ F3Q26 실적

: 매출 171.9억 달러(+22%, +18% cc)
vs 컨센 169.2억 달러 및 가이던스 168.1~169.6억 달러(+19~20%, +16~18% cc)
: Non GAAP EPS $1.79
vs 컨센 $1.70 및 가이던스 $1.64-1.68
: RPO 5,530억 달러(+325%)
vs 컨센 5,560억 달러, F1Q 4,550억 달러 및 F2Q 5,230억 달러

: 클라우드 매출 89.1억 달러(+44%, +41% cc)
vs 컨센 87.6억 달러, 가이던스 86.9~89.4억 달러(+ 40~44%, +37~41% cc)
: 클라우드 인프라 매출 48.88억 달러(+84%, +81% cc)
vs 컨센 47.4억 달러
: 클라우드 어플리케이션 매출 40.26억 달러(+13%, +11% cc)
vs 컨센 39.97억 달러

: CapEx 186.4억 달러
vs 컨센 133.8억 달러

■ F4Q26 및 FY27 가이던스

: F4Q 매출 성장률 +19~21%, +18~20% cc
vs 컨센서스 +20.2%
: F4Q 클라우드 매출 성장률 +46~50%, +44~48% cc
: F4Q Non GAAP EPS $1.96~2.0
vs 컨센서스 $1.93

: FY26 매출 670억 달러 및 Capex 500억 달러는 기존 유지

: FY27 매출 900억 달러
vs 컨센서스 866.1억 달러

■ 경영진 주요 발언

: RPO 증가의 대부분은 대규모 AI 계약과 관련. 계약 지원을 위해 추가적인 자금 조달이 필요하지 않을 것으로 예상

: 2월 최대 500억 달러 규모의 부채 및 지분 자금 조달 계획 발표. 26년 동안 해당 금액을 초과하는 추가 채권 발행 x

: AI 학습 및 추론을 위한 클라우드 컴퓨팅 수요는 공급보다 빠르게 증가. AI 클라우드 캐파의 가장 큰 소비자 중 일부는 재무 상태를 크게 강화

: 이러한 시장 환경 덕분에 FY27 및 그 이후 기간에 대한 매출 성장률 전망을 충분히 달성하거나 초과 달성할 가능성이 높다고 보고 있음

https://investor.oracle.com/investor-news/news-details/2026/Oracle-Announces-Fiscal-Year-2026-Third-Quarter-Financial-Results/default.aspx

감사합니다.
6👍1
[삼성 이영진] 글로벌 AI/SW 뉴스 🤖 (26/3/11)

■ 엔비디아-Thinking Machines Lab, 다년간의 전략적 파트너십 발표

■ 메타, OpenClaw 기반 AI 에이전트 소셜 네트워크 Moltbook 인수. Superintelligence Labs에 통합

■ 오픈AI, 챗GPT 내 수학, 과학 개념을 이해할 수 있도록 공식과 변수 변화를 실시간으로 보여주는 인터랙티브 시각화 기능 도입

■ 구글, GenAI .mil 플랫폼을 통해 300만 명 이상의 미 국방부 직원이 비기밀 업무용 맞춤형 AI 에이전트 구축 지원

■ 구글, 텍스트와 이미지를 함께 처리하는 멀티모달 임베딩 모델 Gemini Embedding 2를 퍼블릭 프리뷰로 출시

■ 구글, Gemini를 워크스페이스에 통합해 이메일, 파일 데이터를 활용해 문서·프레젠테이션·스프레드시트를 자동 생성하는 AI 기능 출시

■ 구글, AI 검색 ‘Ask Photos’에 대한 불만이 증가에 따라 기존 검색으로 쉽게 전환할 수 있는 옵션을 추가

■ 구글, 테슬라 등이 포함된 기업 연합, Utilize 이니셔티브 출범. 전력망의 유휴 용량을 활용해 전기요금을 낮추는 정책과 기술 추진

■ xAI, 환경 논란에도 불구하고 미시시피주에서 AI 데이터센터 전력 공급용 발전소 건설 허가 획득

■ 아마존, 회사채 발행 계획. 달러 채권 250~300억 달러 및 유로화 채권 100억 유로 규모

■ 아마존, 의료 상담, 기록 설명, 예약 등을 지원하는 AI 헬스 어시스턴트 ‘Health AI’를 웹사이트와 앱으로 확대 출시

■ 마이크로소프트, 법원 제출 의견서에서 앤스로픽을 공급망 위험으로 지정한 국방부 결정이 즉각적 피해를 초래할 수 있다며, 임시 차단이 필요하다는 입장

■ 팔란티어-TWG AI, PolyMarket과 스포츠 예측 시장의 내부자 거래 위험 감시를 위한 협력 발표

■ 얀 르쿤의 AMI Labs, 10.3억 달러 자금 조달. Pre Money 밸류는 35억 달러. 월드 모델 기반 차세대 AI 개발 목표

■ 미국 상원, 챗GPT, 제미나이, 코파일럿 등 AI 챗봇의 공식 업무 사용 승인

감사합니다.
6👍3
젠슨 황, 블로그 글 <AI는 5가지 레이어의 케이크다>

■ AI의 본질
: AI는 단순한 앱이나 모델이 아니라 전기, 인터넷처럼 작동하는 핵심 인프라이며 실제 하드웨어, 에너지, 경제 위에서 작동

■ 컴퓨팅 패러다임 변화
: 기존 컴퓨팅은 사전에 작성된 알고리즘을 실행하는 구조였지만, AI는 비정형 데이터를 이해하고 실시간으로 지능을 생성하는 시스템

■ AI 산업 스택 (5-Layer Stack)
1) Energy - AI 지능 생산의 근본은 전력이며 에너지가 AI 생산량의 물리적 한계를 결정

2) Chips - GPU 같은 AI 칩은 에너지를 계산으로 변환하며 병렬성, HBM, 인터커넥트 성능이 AI 확장 속도를 결정

3) Infrastructure - 데이터센터, 전력, 냉각, 네트워크 등은 지능을 생산하는 AI factories 역할

4) Models - AI 모델은 언어뿐 아니라 생물학, 화학, 물리, 로보틱스 등 다양한 영역을 이해하는 범용 지능 레이어

5) Applications - 최상단에서 경제적 가치가 창출되며 자율주행, 로봇, 신약개발 등으로 구현

■ 인프라 투자 사이클
: AI 구축은 아직 초기이며, 수천억 달러가 투자됐지만 앞으로 수조 달러 규모 인프라 구축이 필요

■ 노동시장 영향
: AI 인프라는 전기, 건설, 네트워크 등 숙련 기술 노동 수요를 크게 증가시키며 생산성 증가가 오히려 고용을 확대

■ 최근 1년의 변화
: 모델 성능이 실제 산업 활용이 가능한 임계점을 넘으면서 신약, 물류, 고객서비스, 개발 등에서 실질적 경제 가치가 발생하기 시작

■ 오픈소스 모델의 역할
: DeepSeek R1 같은 오픈 모델은 AI 확산을 가속하며 애플리케이션 → 인프라 → 칩 → 에너지로 이어지는 전체 스택 수요를 촉발

■ 핵심 결론
: AI는 단순한 소프트웨어 혁신이 아니라 에너지·반도체·데이터센터·산업 애플리케이션을 동시에 바꾸는 거대한 산업 전환. 앞으로 수조 달러 규모 인프라 구축을 동반할 것

https://blogs.nvidia.com/blog/ai-5-layer-cake/
👍63
텐센트, 위챗용 AI 에이전트 개발 프로젝트 보도

: 위챗 내부에서 운영되는 수백만 개의 미니프로그램과 연결 방식

: 지난해 상반기부터 개발이 진행되고 있으며, 최우선 순위의 극비 프로젝트 취급. 올해 중반까지 일부 유저 대상 시험 출시 계획. 3Q 전체 유저 출시 목표

: 알리바바는 Qwen 앱을 전자상거래, 온라인 여행 서비스, 지도 서비스와 연동. 결제 플랫폼도 연결

: 바이트댄스는 Doubao앱을 전자상거래 및 다양한 작업을 처리하는 AI 에이전트로 발전

: 텐센트 챗 봇 앱 Yuanboa MAU는 1.9억 명. Doubao 3.15억 명, Qwen 2.02억 명 대비 작은 수준

: 텐센트는 9월 오픈AI 출신 Yao Shunyu를 영입해 Hunyuan 모델 개발 총괄 권한 부여. 다만 Hunyuan 모델 팀은 재편 과정으로 위챗 AI 에이전트에는 외부 모델 테스트 중

https://t.iss.one/Samsung_Global_AI_SW
3👍1
오라클(ORCL US) F3Q26 리뷰 - 운동 많이 했다

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

오라클은 긍정적 실적과 가이던스를 발표했습니다. 매출은 컨센서스 하회 트렌드에서 벗어났고, 성장도 가속화되었습니다.

RPO는 5,530억 달러(+325% YoY)로 전분기 대비 297억 달러가 증가했습니다.

특히 RPO 증가의 대부분은 대규모 AI 계약 기반으로 계약을 위한 추가 자금 조달 필요가 제한적이라는 점을 강조했습니다.

고객 선급금을 활용하는 방식과 고객이 직접 하드웨어를 가져오는 모델(BYOC) 기반인데요

2월 500억 달러 자금 조달 계획 발표 이후 300억 달러를 조달했고, 추가 채권 발행 계획도 부재하다는 점 등을 종합하면 오라클의 재무 관련 우려도 줄어들 수 있습니다.

AI 인프라에 대한 수요가 공급을 초과하는 상태는 지속되고 있습니다. 추론 수요도 급증하고 있구요

매출 가시성 확보와 함께 F3Q 캐파 관련 AI 인프라 마진은 32%로 가이던스보다 높은 수준을 달성했습니다.

SaaS 종말론 관련해서는 산업별로 완결된 엔드투엔드 플랫폼 제공을 통한 차별점을 강조했고,

기업 고유 데이터 활용의 중요성 확대와 함께 클라우드 데이터베이스 부분도 긍정적 효과를 보고 있습니다.

AI 인프라-데이터베이스-애플리케이션은 오라클이 AI 시대 강조하는 풀스택 강점입니다.

오픈AI의 AI 산업 내 경쟁력 관련 우려와 계약 이행 불확실성도 신규 제품 발표와 펀딩을 통해 일정 부분 축소되었습니다.

FY27 CapEx가 제시되지 않은 점이 아쉬우나 오라클의 펀더멘털은 개선세를 보이고 있습니다.

자세한 내용은 발간된 보고서를 참고해 주시기 바랍니다

보고서 링크: https://bit.ly/3OTNjcm

(2026/3/11 공표자료)
👍4😁2
[반.전] 다음 주 엔비디아 GTC가 개막합니다 - 관전 포인트

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

다음 주 엔비디아 GTC가 개막합니다. 젠슨 황의 키노트는 한국 시간 17일 (화) 새벽인데요,

그간의 젠슨 황의 행보를 트래킹하며 시장에서는 이미 여러 기출 문제(?)들이 언급되고 있습니다.

주요 관전 포인트를 꼽아 보자면,

1) GPU 로드맵 업데이트: CES에서는 Vera Rubin 세부 스펙까지만 공개한 상황. 차기 Vera Rubin Ultra 혹은 Feynman에 대한 디테일 공유 가능성. 세부 스펙까지는 아니더라도, 실물 외형이라도?

2) 추론 특화 신규 반도체: 젠슨 황은 '세상을 놀라게 할 칩'을 공개할 것이라 언급. 작년 말 추론 특화 반도체 LPU 스타트업 Groq을 200억 달러에 우회인수한 바 있기에, GPU가 아닌 새로운 솔루션 공개 예상.

3) 네트워킹 솔루션과 실리콘 포토닉스: 데이터센터에서 고속 통신의 중요성은 나날이 증가. 지난 실적 발표에서 자사를 '최대 네트워킹 업체'라고 자부한 바 있으며, 이미 작년 GTC에도 실리콘 포토닉스 솔루션을 공개한 바 있음.

4) 신규 NAND 솔루션, HBF?! 연초 CES의 화두 중 하나는 병목 해결을 위한 KV 캐시 전용 스토리지 플랫폼인 NVIDIA Inference Context Memory Storage Platform을 공개한 점. 관련 맥락으로 스토리지 단의 신규 솔루션, 특히 메모리 업체들이 개발 중인 HBF (High Bandwidth Flash)에 대한 업데이트 기대.

5) 매출 가시성 업데이트: 작년 10월 GTC에서 2025~2026년 Blackwell/Rubin 매출액과 수주잔고 규모를 공개한 바 있음. 이에, 2026~2027년에 대한 매출 전망을 업데이트 해줄 가능성도 존재. 이 경우, 엔비디아의 컨센서스도 상향될 가능성.


이 외로도, 단골 주제로는 로보틱스, 자율주행, 추론 소프트웨어 플랫폼 등이 있겠습니다.

이번 키노트가 엔비디아는 물론, 최근 변동성이 확대되고 있는 Tech 섹터에 대한 투자심리를 회복시켜 줄 수 있기를 바래 봅니다.

계속 업데이트 드리겠습니다.


감사합니다.

(2026/03/11 공표자료)
5👍3
오픈AI, Sora의 챗GPT 통합 계획

: 9월 Sora 앱을 출시한 후 5개월 차에 나온 전략 변화. Sora 앱은 출시 초기 앱스토어 1위를 기록했지만 현재 순위는 165위

: 샘 올트먼은 직원들에게 Sora 유저 중 실제로 앱에서 영상을 공개적으로 공유하는 비율이 낮다고 언급

: Sora 통합은 사용량을 확대해 유저 상승에 도움이 될 수 있음. 동시에 비용 증가 가능성도 존재. 오픈AI는 ‘30년까지 추론 비용으로 2,250억 달러 이상 전망

https://t.iss.one/Samsung_Global_AI_SW
👍42
오픈AI, Codex 오류 후 사용량 리셋 무한반복

- Codex 총괄 Thibault Sottiaux(Tibo)

Codex가 다시 정상적으로 돌아왔고 현재 안정화된 상태입니다. 당분간은 문제없이 사용할 수 있을 것 같습니다.리셋 버튼을 눌렀으니, 곧 정상적으로 확인하실 수 있을 것입니다.


Codex GPU 클러스터가 여전히 과부하 상태이며, 팀이 이를 감당하기 위해 밤낮없이 작업하고 있습니다. 오늘 늦은 저녁쯤에는 안정화가 이루어질 것으로 보고 있습니다.


https://t.iss.one/Samsung_Global_AI_SW
👍4
앤스로픽, Anthropic Institute 출범

우리는 Anthropic Institute를 출범합니다. 이는 강력한 인공지능이 우리 사회에 제기할 가장 중요한 도전 과제들을 다루기 위한 새로운 이니셔티브입니다.

Anthropic Institute는 앤스로픽 전반에서 이루어지는 연구를 바탕으로, 연구자들과 일반 대중이 더 강력한 AI 시스템이 존재하는 세계로 전환하는 과정에서 활용할 수 있는 정보를 제공할 것입니다.

앤스로픽이 설립된 지난 5년 동안 AI의 발전 속도는 매우 빨랐습니다.

우리는 첫 상업용 모델을 출시하는 데 2년이 걸렸고, 이후 단 3년 만에 다음과 같은 능력을 가진 모델을 개발하게 되었습니다.

• 심각한 사이버보안 취약점을 발견할 수 있는 능력
• 다양한 실제 업무를 수행하는 능력
• 심지어 AI 개발 자체의 속도를 가속하기 시작하는 능력

우리는 향후 2년 동안 훨씬 더 극적인 발전이 이어질 것이라고 예상합니다.

우리 회사의 핵심 신념 중 하나는 AI 발전이 가속되고 있다는 것입니다. 즉, 우리가 만드는 개선이 시간이 지날수록 누적적으로 더 큰 발전을 만들어낸다는 것입니다.

이 때문에 앤스로픽 CEO인 다리오 아모데이가 『Machines of Loving Grace』에서 설명한 것과 같은 매우 강력한 AI는 많은 사람들이 생각하는 것보다 훨씬 빠르게 등장할 것이라고 우리는 보고 있습니다.

만약 이것이 맞다면, 사회는 곧 여러 거대한 문제에 직면하게 될 것입니다.

예를 들어 다음과 같은 질문들입니다.

• 강력한 AI 시스템은 일자리와 경제를 어떻게 재편할 것인가?
• 사회의 회복력을 강화할 어떤 기회를 제공할 것인가?
• 어떤 위협을 증폭시키거나 새롭게 만들어낼 것인가?
• AI 시스템이 표현하는 가치는 무엇이며, 기업이 어떤 가치가 적절한지 결정하도록 사회는 어떻게 도울 것인가?
• 만약 AI의 재귀적 자기개선(recursive self-improvement)이 실제로 시작된다면, 누가 그 사실을 알아야 하며 이러한 시스템은 어떻게 통치되어야 하는가?

Anthropic Institute의 목표는 우리가 최전선 AI 시스템을 구축하면서 이러한 문제들에 대해 배우고 있는 것을 세계와 공유하는 것이며, 외부 이해관계자들과 협력해 우리가 직면해야 할 위험을 해결하는 것입니다.

우리 사회가 이러한 과제를 해결할 수 있는지 여부가 AI가 과학, 경제 발전, 인간의 역량 확장이라는 급진적인 잠재적 혜택을 실현할 수 있는지를 결정하게 될 것입니다.

조직 구조와 연구 영역

Anthropic Institute는 공동 창업자인 Jack Clark이 이끌게 되며, 그는 앤스로픽의 Head of Public Benefit이라는 새로운 역할을 맡게 됩니다.

연구소에는 다음과 같은 다학제적 인력이 참여합니다.

• 머신러닝 엔지니어
• 경제학자
• 사회과학자

또한 앤스로픽 내부의 세 가지 연구팀을 통합하고 확장합니다.

1. Frontier Red Team
AI 시스템을 스트레스 테스트하여 현재 능력의 한계를 파악

2. Societal Impacts 팀
AI가 현실 세계에서 어떻게 사용되는지 연구

3. Economic Research 팀
AI가 일자리와 경제 전반에 미치는 영향 분석

연구소는 또한 새로운 연구팀들을 인큐베이팅하며, 현재 다음과 같은 연구를 진행 중입니다.

• AI 발전 속도 예측(forecasting AI progress)
• 강력한 AI가 법 시스템과 어떻게 상호작용할지 연구

Anthropic Institute의 역할

Anthropic Institute는 독특한 관점을 가지고 있습니다.

왜냐하면 최전선 AI 시스템을 실제로 개발하는 조직만이 접근할 수 있는 정보에 접근할 수 있기 때문입니다.

연구소는 이러한 장점을 활용하여 우리가 만드는 기술이 어떤 방향으로 발전하고 있는지에 대해 솔직하게 보고할 것입니다.

동시에 이 연구소는 일방향 조직이 아닙니다. 다음과 같은 대상들과 적극적으로 소통할 것입니다.

• AI로 인해 일자리 변화나 대체를 겪는 노동자와 산업
• 미래 변화에 대해 불안하지만 어떻게 대응해야 할지 모르는 공동체

과정에서 얻는 교훈은 연구소의 연구 방향뿐 아니라 앤스로픽 전체의 의사결정에도 영향을 줄 것입니다.

Anthropic Public Policy 조직 확대

Anthropic Institute 출범과 함께 Public Policy 조직도 확장합니다.

Public Policy 팀은 다음과 같은 분야를 중심으로 활동합니다.

• 모델 안전성과 투명성
• 에너지 요금 납부자 보호
• AI 인프라 투자
• 수출 통제
• AI 분야에서의 민주주의 국가 리더십

이 팀은 Sarah Heck이 이끌게 됩니다.

그녀는 앤스로픽 합류 전 Stripe에서 Head of Entrepreneurship, 백악관 국가안보회의(NSC)에서 글로벌 기업가 정책 및 공공외교 정책을 담당했습니다.

앤스로픽은 전 세계 AI 거버넌스를 형성하는 데 기여하기 위해 Public Policy 팀을 확장하고 있습니다. 또한 올봄 워싱턴 DC에 첫 사무소를 개설하며, 글로벌 정책 활동을 빠르게 확대할 예정입니다. 현재 채용 공고도 진행 중입니다.

https://www.anthropic.com/news/the-anthropic-institute
5👍2
엔비디아-네비우스, 풀스택 AI 클라우드 확장을 위한 파트너십 체결

: AI 팩토리 중심 심층 엔지니어링 협력. 엔비디아는 네비우스에 20억 달러 투자 계획 발표

: ‘30년 말까지 5GW 이상 AI 컴퓨팅 인프라 구축 목표, 차세대 NVIDIA 가속 컴퓨팅 플랫폼 조기 도입 지원

: 기술 협력 범위

- AI 팩토리 설계 협력: 시스템 설계, 초기 샘플, 소프트웨어, bring-up 지원

- 추론 스택 구축: 엔비디아 소프트웨어, 모델 라이브러리 기반 추론 및 에이전틱 AI 플랫폼 개발

- AI 인프라 배포: Rubin GPU 플랫폼, Vera CPU, BlueField 스토리지 등 차세대 아키텍처 도입

- 플릿 관리: GPU 상태 모니터링 및 운영 최적화

https://nebius.com/newsroom/nvidia-and-nebius-partner-to-scale-full-stack-ai-cloud
5👍1
[삼성 이영진] 글로벌 AI/SW
xAI 공동 창립자 Toby Pohlen 퇴사 발표 : 12명의 공동 창립자 중 7번째 이탈. 최근 전사 회의에서 Macrohard 리드로 소개. 머스크는 답글로 감사 표현 https://t.iss.one/Samsung_Global_AI_SW
xAI, Macrohard 프로젝트의 정체

: Macroahard는 AI 에이전트 기반 소프트웨어 프로젝트. 화이트칼라 업무를 수행하는 AI 사무직 에이전트 구축 목표

: 리더십 교체와 600명 규모 데이터 라벨링 프로젝트 중단 이후 프로젝트 정체 상태

: 2월 2명의 핵심 리더 퇴사 후 신규 총괄로 투입된 공동창업자 Toby Pohlen도 발표 후 16일만에 퇴사

: Macrohard 팀 엔지니어들도 최근 몇 달 사이 이탈하거나 팀 이동. 관련 채용 공고도 중단된 상태

: 머스크는 Macrohard 팀의 진행 속도에 불만 지속 제기

: 한편 테슬라는 Digital Optimus라는 AI 에이전트 개발 중

: 실시간 스트리밍 기반 접근으로 지속적 데이터 입력과 실시간 행동 결정 방식. FSD와 유사

: Macrohard는 스크린샷 기반으로 단계별 행동을 수행하는 기존 컴퓨터 유즈 에이전트 방식

https://t.iss.one/Samsung_Global_AI_SW
👍6
[삼성 이영진] 글로벌 AI/SW
xAI, Macrohard 프로젝트의 정체 : Macroahard는 AI 에이전트 기반 소프트웨어 프로젝트. 화이트칼라 업무를 수행하는 AI 사무직 에이전트 구축 목표 : 리더십 교체와 600명 규모 데이터 라벨링 프로젝트 중단 이후 프로젝트 정체 상태 : 2월 2명의 핵심 리더 퇴사 후 신규 총괄로 투입된 공동창업자 Toby Pohlen도 발표 후 16일만에 퇴사 : Macrohard 팀 엔지니어들도 최근 몇 달 사이 이탈하거나 팀 이동. 관련…
일론 머스크, Macrohard와 Digital Optimus 관련 반박

Macrohard 또는 Digital Optimus는 xAI에 대한 Tesla의 투자 계약 일환으로 진행되는 xAI-Tesla 공동 프로젝트입니다.

Grok은 세계에 대한 깊은 이해를 바탕으로 Digital Optimus를 지휘하는 마스터 지휘자/내비게이터 역할을 합니다.

Digital Optimus는 최근 5초 동안의 실시간 컴퓨터 화면 영상과 키보드,마우스 입력을 처리하고 행동으로 옮깁니다.

Grok은 턴바이턴(turn-by-turn) 내비게이션 소프트웨어의 훨씬 더 발전되고 정교한 버전과 비슷하다고 보면 됩니다.

이를 다음과 같이 생각할 수 있습니다.

Digital Optimus AI는 ‘시스템 1’(마음의 직관적 부분)이고, Grok은 ‘시스템 2’(생각하고 추론하는 부분)입니다.

시스템은 저렴한 Tesla AI4 칩(650달러)에서 매우 경쟁력 있게 실행될 것이며, 동시에 훨씬 더 비싼 xAI의 Nvidia 하드웨어는 비교적 절제된 방식으로 사용됩니다.

그리고 이것은 유일한 실시간 스마트 AI 시스템이 될 것입니다. 이건 매우 큰 일입니다.

원칙적으로 이 시스템은 기업 전체의 기능을 모방(emulate) 할 수 있습니다.

그래서 프로그램 이름이 MACROHARD이며, Microsoft를 재미있게 패러디한 이름입니다.

아직까지 이를 할 수 있는 다른 회사는 없습니다.


https://t.iss.one/Samsung_Global_AI_SW
👍4
[삼성 이영진] 글로벌 AI/SW 뉴스 🤖 (26/3/12)

■ 엔비디아-네비우스, 풀스택 AI 클라우드 확장을 위한 파트너십 체결. 엔비디아는 네비우스에 20억 달러 투자 계획. 30년 말까지 5GW 이상 AI 컴퓨팅 인프라 구축 목표

■ 마이크로소프트, 오라클이 포기한 텍사스 애빌린 AI 데이터센터 캠퍼스에서 수백 MW 용량을 임대하기 위한 협상 보도

■ 마이크로소프트, Microsoft Foundry에 고성능 추론 플랫폼 Fireworks AI 통합

■ 메타, 2027년까지 MTIA 300~500 등 자체 AI 칩 4세대를 도입 계획

■ 앤스로픽, Claude의 Excel, PowerPoint 애드인을 Bedrock, Vertex AI, Microsoft Foundry에서 제공하고 두 앱 간 컨텍스트 공유 기능 강화

■ 엔비디아, 추론 성능을 강화한 모델 Nemotron-3 Super 공개

■ AI 코딩 스타트업 Replit, 4억 달러 펀딩. 밸류는 90억 달러

■ 오라클, SEC 공시를 통해 26년 구조조정 계획 비용 최대 21억 달러 예상

■ 아마존, AI 쇼핑 서비스 Shop Direct에서 판매자가 상품을 효과적으로 노출할 수 있도록하는 Feeds 기능 도입

■ 크라우드 스트라이크-퍼플렉시티, Falcon 보안을 AI 브라우저 ‘Comet Enterprise’에 통합해 실시간 보안과 데이터 보호 기능 제공 협력

■ 퍼플렉시티, OpenClaw 기반의 멀티모델 AI 에이전트로, 웹 탐색, 파일 작업, API 호출 등을 자동 수행하는 디지털 워커 기능 Perplexity Computer 발표

■ 틱톡, 애플 뮤직과 독점 파트너십 체결. 애플 뮤직 구독자는 틱톡 내 음악 재생 기능 활용 가능

■ 바이트댄스, AI 에이전트 프레임워크 DeerFlow 2.0을 깃허브에 오픈소스로 공개

■ Z. ai, OpenClaw를 PC에서 원클릭으로 실행할 수 있는 로컬 앱 AutoClaw 출시. 정부, 기업, 대학 대상 전국 배포 계획 발표

■ 바이두, 설치 없이 OpenClaw AI 에이전트를 바로 사용할 수 있는 클라우드 서비스 DuClaw 출시

감사합니다.
5👍1
마이크로소프트, 텍사스 애빌린 데이터센터 임대 협상

: 오라클이 애빌린 AI 데이터센터 확장 계획을 철회한 이후 마이크로소프트가 임대 협상 진행 중. 메타도 동일 부지 임대를 논의 중이며, 엔비디아가 프로젝트 유지에 개입

: 마이크로소프트는 수백MW 규모 데이터센터 용량 임대검토. 다만 완공 시점에 특정 고객에게 캐파를 제공할지는 아직 불확실

AI 데이터센터 수요는 여전히 견조

https://t.iss.one/Samsung_Global_AI_SW
3👍1
[삼성 이영진] 글로벌 AI/SW
엔비디아-네비우스, 풀스택 AI 클라우드 확장을 위한 파트너십 체결 : AI 팩토리 중심 심층 엔지니어링 협력. 엔비디아는 네비우스에 20억 달러 투자 계획 발표 : ‘30년 말까지 5GW 이상 AI 컴퓨팅 인프라 구축 목표, 차세대 NVIDIA 가속 컴퓨팅 플랫폼 조기 도입 지원 : 기술 협력 범위 - AI 팩토리 설계 협력: 시스템 설계, 초기 샘플, 소프트웨어, bring-up 지원 - 추론 스택 구축: 엔비디아 소프트웨어, 모델 라이브러리…
엔비디아-네비우스 파트너십 강화

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

엔비디아와 네비우스가 풀스택 AI 클라우드 확장을 위한 파트너십을 발표했습니다.

네비우스에 대한 엔비디아 지분 투자 금액은 20억 달러 그리고 캐파 목표는 '30년 말까지 5GW+ 규모 구축입니다.

흥미롭게도 투자 금액과 목표는 지난 1월 말 엔비디아-코어위브 파트너십과 같은 수준입니다. Vera Rubin 포함 풀스택 인프라 배포 관련 내용도 유사하구요

주요 협럭 분야는 다음과 같습니다.

1) AI 팩토리 설계 및 지원 - 시스템 설계, 초기 샘플 및 시스템 소프트웨어 지원, 초기 가동 지원 등

2) 추론 스택 구축 - 엔비디아 소프트웨어, 모델 라이브러리 기반 추론 및 에이전틱 AI 스택 구축

3) AI 인프라 배포 - Rubin GPU, Vera CPU, BlueField 스토리지 등 차세대 아키텍처 도입

4) 플릿 관리 - GPU 상태 모니터링, 소프트웨어 권장 사항 적용을 통한 네비우스 인프라 운영 안정성과 성능 최적화

코어위브 딜과 약간 다른 점은 엔비디아 재무 역량을 활용한 토지, 전력, 셀 확보를 가속화하는 백스탑 지원보다 소프트웨어 스택 강화와 플릿 관리 능력 지원에 초점이 맞춰졌다는 것입니다.

네비우스의 '25년 계약 전력은 2GW, 활성 전력은 170MW 수준입니다. '26년 계약 전력 전망은 3GW인데요

장기 캐파 확장 로드맵과 엔비디아의 투자는 확장 가능한 AI 네이티브 클라우드 플랫폼으로써 네비우스의 지위를 강화하는 포인트입니다.

오라클의 긍정적 실적에 더해 네오클라우드에 대한 재평가가 진행될 수 있다고 생각합니다.

(2026/3/12 공표자료)
5👍1
팔란티어-LG CNS 전략적 파트너십 발표

: LG 그룹 전반의 AI Transformation(AX) 가속화를 위한 전략적 협력 발표. 팔란티어 AIPCon을 앞두고 공개

: ‘25년 말 LG 그룹 계열사에 팔란티어 도입 후 품질 관리 개선 성과 확인. 이후 그룹 전체로 확장 추진

: LG CNS 내부에 FDE 전담팀 구축. 팔란티어 엔지니어와 공동으로 AX 유즈 케이스 발굴 및 실제 현장 적용 및 실행 지원

: 적용 산업 범위는 첨단 제조, 에너지, 전자, 물류 등

https://investors.palantir.com/news-details/2026/LG-CNS-and-Palantir-Announce-Strategic-Partnership-to-Accelerate-AI-Transformation/
👍4
메타, MTIA 로드맵 공개 - 추론 중심 자체 AI 칩 전략 가속

왜 MTIA가 필요한가?

: 메타는 수십억 명 사용자에게 추천, AI 어시스턴트 등 다양한 AI 기능을 제공. 다만 AI 모델 진화 속도가 매우 빨라 단일 하드웨어 세대로 대응하기 어려운 상황

: 이에 메타는 외부 칩을 활용하는 동시에 자체 AI 칩 MTIA 개발을 병행하며 비용과 성능을 동시에 최적화하는 전략 추진

MTIA의 과거와 미래

: 메타는 초기 세대MTIA 100, 200에 대한 연구를 공개했고, 수십만 개 칩을 실제 서비스에 배치

: 이후 MTIA 개발을 MTIA 300 400 450 500으로 개발을 빠르게 확장

: 지원 범위도 랭킹 및 추천(R&R) 추론 → 추천 학습 → 생성AI 워크로드 → 생성AI 추론으로 확대

: 핵심 메시지는 AI 변화 속도에 맞춰 칩도 반복적으로 빠르게 개선해야 한다는 점

MTIA 300: 비용 효율적 기반

: 내장 NIC 칩렛, 메시지 엔진, near-memory compute 같은 통신 중심가 핵심

: 초기에는 추천, 랭킹 학습용이었지만, 저지연, 고대역폭 구조가 이후 생성 AI 칩 아키텍처의 기반

: 구조는 compute chiplet 1개, network chiplet 2개, 여러 HBM 스택으로 구성

: 각 PE에는 RISC-V 벡터 코어, 행렬 연산 엔진, activation 유닛, reduction 엔진, DMA 엔진 포함

MTIA 400: 본격적인 성능 경쟁

: 생성 AI 확산에 맞춰 MTIA 300을 크게 업그레이드한 버전. FP8 FLOPS는 4배, HBM 대역폭은 51% 증가

: 비용 절감 중심 칩에서 상용 AI 가속기와 경쟁 가능한 성능을 지향한 첫 MTIA 세대

: 72개 칩을 하나의 scale-up 도메인으로 묶는 랙 단위 시스템 구조

MTIA 450: 생성 AI 추론 최적화

: 생성 AI 추론의 주요 병목을 메모리 대역폭과 어텐션 및 FFN 처리로 판단

: 주요 개선은 HBM 대역폭2배로 증가, MX4 FLOPS를 75% 증가, 어텐션, FFN 가속 기능 삽입

: 저정밀 데이터 타입을 강화해 추론 효율도 향상. 학습보다 추론 중심으로 최적화

MTIA 500: 더 적은 비용으로 더 많은 추론

: MTIA 500은 450보다 HBM 대역폭 50%, 용량 최대 80%, MX4 FLOPS 43%를 추가로 향상

: 더 작은 compute chiplet 여러 개를 조합하는 모듈형 아키텍처 채택

: SoC chiplet, network chiplet, HBM을 통합해 비용 효율과 확장성 강화

MTIA 칩 성능 진화

: MTIA 300에서 500으로 가며, HBM 대역폭 4.5배, 연산 성능 25배 증가. 이를 통해 단일 대형 설계보다 짧은 개발주기의 반복적 개선 전략이 효과적이라로 강조

핵심 전략 1: High Velocity(고속 개발)

: 약 6개월 단위 칩 개발 사이클 구축. 새로운 모델 아키텍처, 저정밀 데이터 포맷, 서빙 기술 변화에 빠른 대응 가능

: 최신 공정, HBM, 패키징 기술도 빠른 도입 가능. 이를 가능하게 하는 기반은 칩렛, 섀시, 랙, 네트워크 인프라 전반의 모듈 설계

핵심 전략 2: Inference First(추론 중심)

: 일반 GPU는 대규모 사전학습 중심으로 설계. 반면 메타는 생성 AI 추론을 우선 최적화한 뒤 다른 워크로드로 확장하는 방식 채택

: 향후 AI 수요가 학습보다 추론 쪽에서 더 크게 늘어날 것이라는 판단

핵심 전략 3: Frictionless Adoption(마찰 없는 도입)

: MTIA는 처음부터 PyTorch, vLLM, Triton, OCP 같은 업계 표준 위에서 설계

: 개발자가 별도 MTIA 전용 코드베이스를 새로 짤 필요 없이 기존 오픈소스 생태계를 활용할 수 있도록 설계

MTIA의 의미

: 메타는 MTIA를 통해 추천 시스템용 칩에서 시작해 생성 AI 추론과 향후 학습까지 확장 가능한 자체 AI 가속기 로드맵 구축

: 각 세대는 이전 세대의 교훈을 반영해 빠르게 개선되며, 시스템 호환성도 유지

https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/
👍2