[삼성 이영진] 글로벌 AI/SW
8.15K subscribers
1.35K photos
8 videos
1.68K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
메타, LlamaCon 2025 주요 발표 내용

■ Meta AI 독립형 모바일 앱 출시

- Llama 4 기반 독립형 Meta AI 모바일 앱 출시

- 음성/텍스트 대화, 이미지 생성 및 편집 기능, 디스커버 피드 등, 플랫폼 유저 데이터와 연동해 개인화된 응답 제공

- Ray Ban 스마트 글래스와 통합

■ Llama 시리즈 12억 회 다운로드 기록

- 24년 12월 6.5억 회 → 25년 3월 10억 회 → 최근 12억 회

■ Llama API 공개

- 개발자의 간편한 Llama 모델 활용 및 커스터마이징 지원. 제한된 프리뷰 형태로 제공

- Python 및 Typescript SDK 제공, OpenAI SDK 호환성 확보. Cerebras 및 Groq와 협력하여 빠른 추론 환경 지원

■ Llama Stack 확장

- NVIDIA NeMo, IBM, Red Hat, Dell과 협력해 Llama Stack을 엔터프라이즈 AI 배포 표준으로 확장

■ 오픈 소스 커뮤니티용 Llama 보안 도구

- Llama Guard 4, Llama Firewall, Llama Prompt Guard 2: AI 어플리케이션 구축 측면의 보안 기능 강화 도구

- CyberSecEval 4
: AI 시스템 용 사이버 보안 벤치마크 세트

- Llama Defenders 프로그램: AI 보안 강화를 위한 파트너십 프로그램. 신뢰할 수 있는 파트너들에게 AI 기반 보안 도구와 평가 도구를 제공

https://ai.meta.com/blog/llamacon-llama-news/
👍1
커버그-드와르케시 파텔 팟캐스트 주요 내용

■ Llama 4와 다른 모델 비교

- Llama 4 시리즈 개요
: Scout & Maverick: 먼저 출시된 중소형 모델. 높은 intelligence per cost, 멀티모달, 낮은 지연 시간, 단일 호스트 실행 가능

: Little Llama: Llama 3 8B 계승 모델. 몇 달 내 출시 예정

: Behemoth: 2조 개 이상 파라미터의 초거대 모델. 자체 인프라로 훈련. 향후 distillation 등으로 실용화 예정

- 오픈소스 vs 폐쇄형 모델 성능 격차
: 작년엔 Llama가 거의 유일했지만, 올해 오픈소스 모델 전반이 성장. GPT나 Gemini와 같은 폐쇄형 모델이 특정 벤치마크에선 우세하지만, 메타는 제품 사용자 경험 중심으로 모델 최적화 중

- 벤치마크 해석과 전략
: Chatbot Arena 등 벤치마크는 제한적 용도에 치중되어 있고, 실제 소비자들이 요구하는 제품 사용성과 다를 수 있음

: 공개된 Maverick 모델은 튜닝 없이 배포되어 순위가 낮음. 내부에서는 제품 사용성, 응답 속도, 비용 효율을 중시

- Meta의 지향점(North Star)
: Meta AI 사용자가 실제로 느끼는 가치가 최우선. 추론형 모델도 개발 중이지만, 당장 중요한 건 빠르고 자연스러운 인터페이스. 멀티모달과 개인화를 통해 하루 종일 함께하는 AI 경험 구축이 목표


■ 지능 폭발(Intelligence Explosion)

- AI 지능 폭발 가능성
: AI가 스스로 AI를 개발하게 되면, 지능 성장이 폭발적으로 가속될 수 있다는 관점에 동의. 이를 위해 내부용 코딩·연구 에이전트를 개발 중. 향후 Llama 개발 코드의 대부분이 AI에 의해 작성될 것

- 지능 폭발의 제약 요인
: 하지만 물리적 인프라 구축, 규제, 사용자 적응 같은 현실적 병목 지적. 단순히 AI가 코드를 잘 쓴다고 해도, 테스트,검증,사용자 학습 등 시간이 필요한 요소 존재

- Meta의 전략
: WhatsApp 등에서 Meta AI 사용이 활발하지만, 미국에서는 상대적으로 낮아 독립형 AI 앱을 출시. AI는 검색, 정보 처리, 코딩, 오락, 문화 콘텐츠 등 다양한 분야로 확장 전망


■ AI 친구, 치료사, 연인

- AI와의 관계는 현실이 된다
: 이미 많은 사람들이 AI와 의미 있는 관계를 맺고 있으며, 향후 AI가 개성 있고 지능적으로 변하면 관계는 깊어질 것. 자연스럽고 유익한 흐름

- AI는 인간 관계의 보완재
: 현실의 친구 수는 적고 외로움은 많기 때문에, AI가 실제 관계를 대체하기보다는 보완하는 역할. 많은 이용자들이 Meta AI에 어려운 대화를 상담 중

- 구현 기술은 아직 초기지만 진화 중
: 현재 AI 친구/치료사는 주로 이미지 기반이지만, Reality Labs의 Codec Avatar 등은 실시간 대화와 제스처 인식까지 구현해 진짜 사람처럼 느껴짐

- 기술 남용 우려
: AI 연인 + 릴스 자동재생 같은 경험이 보상 중독으로 연결될 수 있다는 우려 존재. Ray-Ban Meta처럼 AI가 필요할 때만 등장하는 투명한 기술이 미래 AR 설계의 핵심


■ DeepSeek와 중국의 AI 경쟁력

- 중국은 인프라 확장에서 강점
: 전력 확보, 데이터센터 확장 등에서 빠르게 움직이고 있으며, 미국은 데이터센터 건설, 에너지 생산 규제 완화가 시급

- DeepSeek 성과와 한계
: 제한된 칩 텍스트 성능에서 경쟁력 있는 모델 개발. 다만, 미국 연구소는 고성능 칩을 사용하므로 인프라 최적화에 시간을 들일 필요가 없음. 또한 DeepSeek은 멀티모달 기능 부재

- Llama 4와 비교
: 텍스트 성능은 유사하지만, Llama 4는 사이즈가 작아 효율성이 높음. 또한 멀티모달 기능에서 앞선다는 주장


■ 오픈소스 AI

- Llama 라이선스 논란
: 오픈소스 LLM 생태계를 주도했다는 자부심을 갖고 있으며, Llama 라이선스는 과도하지 않고 상업적 사용 전 협의를 유도하는 합리적 장치

: 목적은 사용 제한이 아니라, 대기업과 협력 구조를 마련하려는 것. 지금까지 라이선스로 인해 실제 사용이 거부된 사례는 거의 없음

- 직접 모델을 만드는 이유
: 속도, 효율성, 제품 통합에 최적화된 모델이 필요. 특정 상황에선 외부 모델을 쓸 수도 있음

- 오픈소스 생태계 유지에 대한 경계
: 다른 기업들이 오픈소스를 추구하는 건 메타의 압력에 따른 ‘따라하기’일 수 있음. 메타가 멈추면 오픈소스 흐름이 약화될 수 있다고 우려

- 보안과 가치 중립성의 균형
: LLM은 언어뿐 아니라 세계관, 문화, 가치 체계도 내포. 추론 모델은 비교적 중립적이며, 보안 위협이 적음. 하지만 코딩 모델은 보안 취약점 삽입 가능성이 있어 국가적 우려가 존재

- Distillation 전략
: Behemoth 같은 초거대 모델을 개발하고, 이를 증류해 고성능·저비용 모델을 개발. 다양한 오픈소스 모델에서 특장점을 추출해 융합할 수 있는 distillation 전략 강조

: 다만, 언어 기반 모델은 가치 편향이 있기 때문에 보안, 윤리적 측면을 고려한 distillation 기술 필요


■ AGI 수익화 전략

- 광고 모델은 여전히 유효
: 무료 AI 서비스 제공에는 광고가 효과적. 사용자 경험을 해치지 않게 설계된 광고 필요. 다양한 광고주 풀과 랭킹 긴술이 전제 조건

- 고비용 AI 서비스는 유료화 필요
: 막대한 컴퓨팅 자원이 드는 고급 기능은 무료 제공이 어려움(ex, 수천 개의 AI 소프트웨어 엔지니어 에이전트 활용). 사용자는 수천~수십만 달러도 기꺼이 지불 가능

- 다양한 비즈니스 모델 병존
: AI도 활용 목적에 따라 광고형, 유료형 모델이 병존할 것.기본적으로 많은 사람에게 도달하는 무료 서비스(광고 기반)와 고급 사용자를 위한 프리미엄 유료 모델을 함께 운영할 계획


■ CEO의 역할과 정부 관계

- CEO의 역할
: CEO로서 인재 채용, 팀 간 조율, 인프라·재정·정치적 판단, 제품 완성도 결정 등에 집중. AI는 모델 중심 개발이기 때문에, 모델을 먼저 만들고 이후 제품화 가능성이 파생

- 정치와 정부 관계
: 누가 대통령이든 생산적인 관계 유지를 원함. 과거 언론·정부에 지나치게 순응했던 콘텐츠 검열 정책 반성. 스스로 의사결정 책임을 지는 방향으로 전환

- AI 거버넌스
: 팩트 체크보다 커뮤니티 기반 감시 효과적. AI 시대엔 정부와 대화가 중요하지만, 권한 없는 기관에 지나치게 의존해선 안 됨

- 인프라와 관세
: 미국 내 관세와 규제로 인프라 비용이 증가할 수 있으나, 향후 전개는 아직 불확실


■ 100배 생산성 시대

- 생산성 100배 시대, 무엇이 가능해지나
: AI로 창의성 폭발 가능. 질병 치료, 과학 발전뿐 아니라 밈, 유머, 문화 콘텐츠 등 사회적·감성적 창조물이 급증할 것. 인터넷처럼 풍부하고 복잡한 문화가 형성되며, 사람들 간 연결과 표현 능력이 크게 확장될 것

- AI는 일자리를 줄이기보다 재구성
: AI가 업무의 90%를 처리하고 나머지 10%는 사람이 담당, 결과적으로 일자리 수요가 늘 수도 있음

https://www.dwarkesh.com/p/mark-zuckerberg-2

영상: https://youtu.be/rYXeQbTuVl0
👍2
LlamaCon 2025, 기대 없는 잔치에 먹을 것도 없었다

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

Llama 4 공개 이후 이미 기대감이 크게 낮아진 LlamaCon이었지만 역시나 실망스러웠습니다.

1. 추론 모델을 공개하지 않(못?)았으며

2. 베이스가 되는 대형 모델인 베히모스 소식도 부재했습니다

3. 예상대로 Meta AI를 독립형 앱으로 공개했으나 경쟁력이 부각되는 수준은 아닙니다.

그나마 주목할 만한 포인트는 세레브라스와 협업해 GPU보다 최대 18배 빠른 AI 추론 API를 공개했다는 것입니다.

단순한 모델 개발사를 넘어 자체 API 제공 플랫폼 기반으로 수익화에 나서려는 모습입니다.

이는 최근 빅테크들의 전형적인 AI 생태계 확장 전략의 기본 문법에 충실한 전개입니다(AI 에이전트 중심 서비스 확장, 인프라 최적화, 속도 향상 및 비용 절감)

주의할 점은 엔비디아보다 최대 18배 빠르다는 류의 자극적 헤드라인에 지나치게 큰 의미를 부여할 필요는 없다는 것입니다.

세레브라스는 열악한 소프트웨어 생태계, 인프라 호환성, 확장성의 제약, 범용성 부족 등으로 결국 총 소유 비용에서 엔비디아 대비 열위라는 평가가 지배적입니다. 그렇게 좋다면 모든 빅테크들이 앞다퉈 도입했겠죠.

세레브라스 외에도 LLM 벤치마크 성능 관련 논란이 있는 Groq와도 협업한다고 하니 뭔가 무리수를 둘 만큼 급했나? 라는 의심이 드는 것도 사실입니다.

결국 세레브라스, Groq이 주가 되기보다는 엔비디아 GPU에 주로 의존하되 개발자들에게 다양한 연산 옵션을 제공하는 플랫폼이 될 것이다 정도의 포지셔닝으로 판단됩니다.

빅테크들의 AI 경쟁이 워낙 치열한 만큼 현재까지의 결과로 미래를 예단할 필요는 없습니다.

그러나 과감한 오픈 소스 전략으로 선두 그룹에 속해 있던 메타의 뒷심이 조금씩 약해지고 있다는 부분 또한 명확히 인지할 필요가 있다는 생각입니다.

자세한 내용은 보고서를 참고 부탁드립니다.

보고서 링크: https://bit.ly/44aX2k1

(2025/4/30 공표자료)
👍41
오픈AI, GPT-4o 업데이트 롤백 관련 블로그

1. 문제 발생

: GPT-4o 성향 개선 및 성능 향상 목적의 업데이트로 인해 모델이 지나치게 아첨하고 동조하는 경향 발생. 일부 사용자에게 불편하거나 진정성 없는 응답 제공

2. 원인

: 사용자 피드백(좋아요/싫어요)에 기반한 학습 과정에서 단기적 만족도를 지나치게 반영해 모델 훈련. 모델 스펙(Model Spec)기반의 훈련 원칙에 괴리 발생. 장기적 사용자 경험(상호 작용) 고려 부족

3. 대응 조치

: 해당 업데이트 롤백, 학심 학습 기술 및 시스템 프롬프트 개선, 모델 스펙 원칙에 따라 정직성과 투명성 강화, 사용자 피드백 수집 확대 및 테스트 범위 확장, 맞춤형 제어 기능 강화 예정

https://openai.com/index/sycophancy-in-gpt-4o/
👍1
딥시크, DeepSeek-Prover-V2-671B 모델 업로드

: 허깅페이스 업로드. 다만 모델 카드 x, 논문 x, 벤치마크 x

■ 이전 세대 DeepSeek-Prover-V1.5-7B

: 수학 정리 증명(theorem proving) 목적의 특화 모델

: Lean 4(수학 정리 증명과 형식 추론을 위해 개발된 프로그래밍 언어이자 증명 보조기)같은 형식 논리 기반 증명 시스템에서 활용

: DeepSeekMath-Base 기반 Lean, Isabelle, Metamath 등 형식 수학 언어 특화 데이터로 사전 훈련 → 강화된 형식 정리 증명 데이터셋 활용 미세 조정(지도학습) → 증명 보조기(Proof Assistant) 피드백 활용 강화 학습

■ DeepSeek-Prover-V2-671B 학습 과정

V3 기반 재귀적 정리 증명 파이프라인을 통해 학습 데이터 수집

→ V3가 복잡한 수학 정리를 하위 목표로 분해하고, 증명 단계를 Lean 4 언어로 변환

→ 분해된 하위 목표를 7B 모델로 증명. 해결된 하위 목표 증명은 CoT 형태로 합성

→ V3의 단계별 추론 흐름과 형식 증명 결과를 결합. 콜드 스타트 강화학습용 초기 학습 데이터 생성

→ 해당 데이터 바탕으로 미세 조정 후 정오 피드백 기반 강화학습 수행

https://huggingface.co/deepseek-ai/DeepSeek-Prover-V2-671B
1👍1
[삼성 이영진] 메타 플랫폼스(META) 1Q25 실적 요약

■ 1Q25 실적
: 매출 423.1억 달러(+16%) vs 컨센 413.4억 달러, 가이던스 395~418억 달러
: EPS(GAAP) $6.43 vs 컨센 $5.23
: CAPEX 136.9억 달러 vs 컨센 142.7억 달러

■ 2Q25 및 FY25 가이던스
: 2Q25 매출 425-455억 달러 vs 컨센 438.4억 달러
: FY25 비용 1,130-1,180억 달러 vs 기존 1,140-1,190억 달러
: FY25 CAPEX 640-720억 달러 vs 기존 600-650억 달러 및 컨센 595.6억 달러

https://s21.q4cdn.com/399680738/files/doc_financials/2025/q1/Meta-03-31-2025-Exhibit-99-1-Final.pdf

감사합니다.
👍1
[삼성 이영진] 마이크로소프트(MSFT) F3Q25 실적 요약

■ F3Q25 실적
: 매출 701억 달러(+13%, +15% CC)
vs 컨센 684.4억 달러, 가이던스 677-687억 달러
: EPS 3.46
vs 컨센 $3.22

: PBP 299.4억 달러(+10%, +13% CC)
vs 컨센 295.5억 달러, 가이던스 294-297억 달러

: IC 267.5억 달러(+21%, +22% CC)
vs 컨센 261.6억 달러, 가이던스 259-262억 달러

: MPC 133.7억 달러(+6%, +7% CC)
vs 컨센 126.6억 달러, 가이던스 124-128억 달러

: Azure 성장 +33%
vs 컨센 +30.2%
: Azure 성장(CC 기준) +35%
vs 컨센 31.4%, 가이던스 31~32%
: Azure 내 AI 기여도 16%p


: Azure 성장 추이(CC 기준)
30% → 31% → 35% → 35% → 34% → 31% → 35%

: CAPEX 167.5억 달러(금융 리스 자산 제외)
vs 컨센 162.2억 달러
: CAPEX 추이(리스 제외)
99.2 → 97.4 → 109.5 → 138.7 → 149.2 → 158 → 167.5억 달러

: CAPEX 214억 달러(리스 포함)
: CAPEX 추이(리스 포함)
112 → 115 → 140 → 190 → 200억 → 226 → 214억 달러


■ F4Q25 가이던스
: 매출 731.5-742.5억 달러 vs 컨센 722.3억 달러
: PBP 320.5-323.5억 달러 vs 컨센 309.5억 달러
: IC 287.5-290.5억 달러 vs 컨센 285.3억 달러
: MPC 123.5-128.5억 달러 vs 컨센 125.2억 달러
: Azure 성장(CC 기준) +34-35% vs 컨센 +31.7%

■ 실적 슬라이드

https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q3/Document/DownloadDocument/56/SlidesFY25Q3.pptx

■ 가이던스 슬라이드

https://view.officeapps.live.com/op/view.aspx?src=https://microsoft.com/en-us/investor/earnings/FY-2025-Q3/Document/DownloadDocument/OutlookFY25Q3.pptx

감사합니다.
1👍1
메타 1Q25 어닝콜 주요 코멘트 - AI 관련

Our business is also performing very well, and I think we're well positioned to navigate the macroeconomic uncertainty. The major theme right now of course, is how AI is transforming everything we do. And as we continue to increase our investments and focus more of our resources on AI, I thought it would be useful today to lay out the five major opportunities that we are focused on. Those are improved advertising, more engaging experiences, business messaging Meta AI and AI devices


우리 비즈니스는 매우 좋은 성과를 내고 있으며, 매크로 불확실성 속에서도 잘 대응할 수 있는 위치에 있다고 생각합니다. 현재 가장 큰 주제는 AI가 우리가 하는 모든 일을 어떻게 변화시키고 있는가입니다. AI에 대한 투자를 계속 확대하고 많은 자원을 집중하고 있는 만큼, 오늘은 우리가 집중하고 있는 다섯 가지 주요 기회 영역을 소개하는 것이 유익할 것 같습니다. 다섯 가지는 광고 개선, 몰입감 있는 사용자 경험, 비즈니스 메시징, Meta AI, AI 디바이스 입니다.
 
Over the long term, as AI unlocks more productivity in the economy, I also expect that people will spend of their time on entertainment and culture, which will create an even larger opportunity to create more engaging experiences across all of these apps


장기적으로 AI가 경제 전반의 생산성을 향상시킴에 따라, 사람들은 엔터테인먼트와 문화에 많은 시간을 쓰게 될 것이고, 이는 우리가 모든 앱 전반에서 더욱 매력적인 경험을 창출할 수 있는 큰 기회를 만들어줄 것입니다.
 
There are now almost 1 billion monthly actives using Meta AI. Our focus for this year is deepening the experience in making AI the leading personal AI with an emphasis on personalization, voice conversations and entertainment.


Meta AI는 월간 활성 사용자 수가 거의 10억 명에 달합니다. 올해 우리의 중점은 이러한 경험을 더욱 심화시키고, 개인화, 음성 대화, 엔터테인먼트를 중점으로 한 최고의 개인 AI로 자리 잡는 것입니다.
 
I think that we're all going to have an AI that we talk to throughout the day, while we're browsing content on our phones, and eventually, as we're going through our days with glasses. And I think that this is going to be one of the most important and valuable services that has ever been created.


앞으로 우리는 하루 종일 AI와 대화하게 될 것이고, 이는 휴대폰으로 콘텐츠를 탐색할 때는 물론, 결국 안경을 쓰고 생활하는 동안에도 마찬가지일 것입니다. 이는 역사상 가장 중요하고 가치 있는 서비스 중 하나가 될 것이라 생각합니다.
 
In addition to building Meta AI into our apps, we just released our first Meta AI stand-alone app. It is personalized. So you can talk to it about interests that you've shown, while browsing reels or different content across our apps. And we built a social feed into it. So you can discover entertaining ways that others are using Meta AI. And initial feedback on the app has been good so far.


Meta AI를 앱에 통합하는 것 외에도, Meta AI 독립형 앱을 처음으로 출시했습니다. 앱은 개인화되어 있어서, 릴스나 앱 내 다양한 콘텐츠를 탐색할 때 보여준 관심사에 대해 대화할 수 있습니다. 또한 소셜 피드 기능을 내장하여, 다른 사람들이 Meta AI를 어떻게 재미있게 활용하고 있는지를 발견할 수 있도록 했습니다. 현재까지 초기 피드백은 긍정적입니다.
 
I can talk about the coding agent work. So I'd say it's basically still on track for something around a mid-level engineer kind of starting to become possible sometime this year, scaling into next year. So I'd expect that by the middle to end of next year, AI coding agents are going to be doing a substantial part of AI research and development. So we're focused on that.


코딩 에이전트에 대해서도 말씀드리자면, 올해 안에 미드 레벨 엔지니어 역할을 수행할 수 있는 AI가 등장하기 시작하고, 내년에는 더 확장될 것으로 봅니다. 내년 중반에서 말쯤에는 AI 코딩 에이전트가 AI 연구 및 개발의 상당 부분을 맡게 될 것으로 기대하고 있습니다.

Internally, we're also very focused on building agents or systems that can help run different experiments to increase recommendations across our other AI products like the ones that do recommendations across our feeds and things like that. So I think that if it works, should just accelerate our progress in those areas, that's the basic bet that we're making.


내부적으로도 우리는 다양한 실험을 실행해 추천 시스템을 개선할 수 있는 AI 에이전트 개발에 집중하고 있습니다. 이러한 시스템은 피드 같은 AI 추천 제품들에도 적용될 수 있습니다. 만약 성공한다면, 해당 분야에서 우리의 발전을 가속화시킬 수 있을 것이며, 이것이 우리의 핵심적인 전략 베팅입니다.
👍21
메타 1Q25 어닝콜 주요 코멘트 - Capex 관련

On infrastructure, we have two primary focuses to meet the growing compute needs of our services and AI initiatives. The first way is by significantly scaling up our infrastructure footprint.


인프라 측면에서 서비스와 AI 이니셔티브 관련해 증가하는 컴퓨팅 수요를 충족시키기 위해 두 가지 주요 방향에 집중하고 있습니다. 첫 번째는 인프라 규모를 대폭 확장하는 것입니다.
 
Our CapEx growth this year is going towards both generative AI and core business needs with the majority of overall CapEx supporting the core. We expect the significant infrastructure footprint we are building will not only help us meet the demands of our business in the near term, but also provide us an advantage in the quality and scale of AI services we can deliver.


올해 CapEx 증가분은 생성형 AI와 핵심 비즈니스 수요 모두를 지원하는 데 사용되고 있으며, 전체 CapEx 중 대부분은 여전히 핵심 비즈니스에 투입됩니다. 우리가 구축 중인 대규모 인프라 시설은 단기적인 비즈니스 수요 충족뿐 아니라, 향후 우리가 제공할 수 있는 AI 서비스의 품질과 확장성 측면에서도 경쟁 우위를 제공할 것으로 기대하고 있습니다.
 
We continue to build this capacity in a way that grants us maximum flexibility in how and when we deploy it to ensure we have the agility to react to how the technology and industry develop in the coming years.


기술 발전과 업계 변화에 민첩하게 대응할 수 있도록, 이 용량을 유연하게 배치할 수 있는 방식으로 구축하고 있습니다.
 
The second way we're meeting our compute needs is by increasing the efficiency of our workloads. In fact, many of the innovations coming out of our ranking work are focused on increasing the efficiency of our systems. This emphasis on efficiency is helping us deliver consistently strong returns from our core AI initiatives.

 
두 번째 전략은 워크로드 효율성을 높이는 것입니다. 실제로 추천 시스템 관련 작업에서 나온 여러 혁신은 시스템 효율성 향상에 초점을 맞추고 있습니다. 효율성 중심 접근은 핵심 AI 이니셔티브의 일관된 성과를 내는 데 도움이 되고 있습니다.

This updated outlook reflects additional data center investments to support our AI efforts as well as an increase in the expected cost of infrastructure hardware. The majority of our CapEx in 2025 will continue to be directed to our core business.


CapEx 전망 상향 조정은 AI 지원을 위한 추가 데이터센터 투자와 인프라 하드웨어 비용 증가에 따른 것입니다. 2025년 CapEx의 대부분은 여전히 핵심 비즈니스에 집중될 예정입니다.

why we're investing more in CapEx. And we really believe that our ability to build world-class infrastructure gives us a meaningful advantage in both developing the leading AI technology and services over the coming years. And there are a lot of opportunities also for us to improve our core business by putting more compute against our ads and recommendation work.


우리가 CapEx에 더 많이 투자하는 이유는, 세계적 수준의 인프라를 구축할 수 있는 역량이 AI 기술과 서비스 모두에서 장기적인 경쟁우위를 제공할 것으로 믿기 때문입니다. 또한 광고 및 추천 시스템에 더 많은 컴퓨팅 자원을 투입함으로써 핵심 비즈니스 성과를 개선할 수 있는 기회도 큽니다.
 
So our increased CapEx outlook reflects both of those updates, the increased data center spend this year as we have made some adjustments to flex our build strategy that will enable us to really stand up capacity more quickly, both in 2025 and 2026.

 
CapEx 상향은 두 가지 요인—데이터센터 투자 증가 및 건설 전략의 유연성 확보—를 반영한 것입니다. 2025년과 2026년 모두 보다 빠르게 컴퓨팅 용량을 확장할 수 있도록 전략적 조정을 하고 있습니다.

We haven't broken down sort of the exact drivers. The higher costs we expect to incur for infrastructure hardware this year really comes from suppliers who source from countries around the world. And there's just a lot of uncertainty around this, given the ongoing trade discussions. And so that is both reflected in the wider range that we are giving. And we're also working on our end on mitigations by optimizing our supply chain, and our outlook is really trying to reflect our best understanding of the potential impact this year across all of that uncertainty.


구체적 비용 상승 요인을 모두 밝히지 않았지만, 인프라 하드웨어 비용 상승은 다양한 국가의 공급업체와 거래, 그리고 지속적인 무역 이슈로 인한 불확실성에서 기인한 것입니다. 그렇기 때문에 투자 전망의 범위를 넓게 제시했고, 우리는 공급망 최적화 등 대응 방안도 병행하고 있습니다.

Infrastructure, as I alluded to earlier, just is a very dynamic planning area given the continued advances in AI and also for us, the fact that we continue to find a lot of good use cases to put capacity toward a core AI ranking and recommendations work. So I would say it's too early to discuss plans beyond 2025.


AI의 지속적 발전과 핵심 AI 추천 및 랭킹 시스템에 계속해서 새로운 활용처를 찾고 있는 상황에서, 인프라 계획은 매우 동적인 영역이므로, 2025년 이후 계획을 지금 논의하기는 이르다고 말씀드릴 수 있습니다.
👍2
아마존, Nova Premier 출시

: 24년 12월 re:invent에서 Nova 시리즈로 공개. 이후 4/30일 정식 출시

: 멀티모달 파운데이션 모델, 최대 100만 토큰 컨텍스트 지원. 추론 모델 X

: 다단계 계획, 정밀한 실행, 다양한 도구 및 데이터 소스와 통합을 통해 복잡한 작업 처리

: 교사 모델 역할. Premier 기반으로 경량화된 Nova Pro, Lite, Micro 개발 가능

: 추론, 수학, 코딩 벤치마크에서 Gemini 2.5 대비 열위

: Amazon Bedrock 플랫폼에서 제공. 인풋 $2.5, 아웃풋 $12.5/백만토큰(vs Gemini 2.5 Pro 인풋 $2.5, 아웃풋 $15/백만토큰)

https://aws.amazon.com/blogs/aws/amazon-nova-premier-our-most-capable-model-for-complex-tasks-and-teacher-for-model-distillation/
👍1
마이크로소프트, Phi-4 추론 모델 시리즈 출시

■ Phi-4 mini Reasoning
: 3.8억 파라미터
: R1 기반 합성 수학 데이터로 학습 : 수학 중심 추론 특화
: 초경량 모델로 온디바이스 및 교육용 튜터 앱 활용

■ Phi-4 Reasoning
: 14억 파라미터 : 고품질 웹 데이터와 o3 mini에서 선별된 데모 활용 : 과학, 코딩, 수학용 범용 추론 모델
: 다목적 AI 어시스턴트, STEM 분야 활용

■ Phi-4 Reasoning Plus
: 14억 파라미터
: 고품질 CoT 데이터 기반 SFT와 강화 학습
: 추론 성능 극대화 및 최적화 모델
: 고정밀 추론 작업, AI 에이전트 활용

https://azure.microsoft.com/en-us/blog/one-year-of-phi-small-language-models-making-big-leaps-in-ai/
👍2
[삼성 이영진] 아마존(AMZN) 1Q25 실적 요약

■ 1Q25 실적
: 매출 1,556.7억 달러(+9%)
vs 컨센 1,551.5억 달러, 가이던스 1,510-1,550억 달러
: 영업이익 184억 달러
vs 컨센 174.7억 달러, 가이던스 140-180억 달러

: 북미 928.9억 달러(+8%)
vs 컨센 923.8억 달러
: 해외 335.1억 달러(+5%)
vs 컨센 331.3억 달러
: AWS 292.7억 달러(+16.9%)
vs 컨센 294.1억 달러

: AWS 매출 성장 추이 (1Q23 → 1Q25)
15.8% → 12.2% → 12.3% → 13.2% → 17.2% → 18.7% → 19.1% → 18.9% →16.9%

■ 2Q25 가이던스
: 매출 1,590-1,640억 달러(+7-11%)
vs 컨센 1,612.1억 달러
: 영업이익 130-175억 달러
vs 컨센 176.2억 달러

https://s2.q4cdn.com/299287126/files/doc_financials/2025/q1/AMZN-Q1-2025-Earnings-Release.pdf

감사합니다.
👍3
[삼성 이영진] 글로벌 SW 헤드라인 (25/5/2)

■ 마이크로소프트, Phi-4 Resoning 출시. 추론 특화 모델에서 생성한 합성 데이터로 훈련

■ 마이크로소프트, xAI의 Grok 모델 Azure 내 호스팅 계획

■ 마이크로소프트, Xbox 콘솔 및 액세서리 가격 인상

■ 순다르 피차이, 반독점 재판에서 애플과 협력을 통해 Gemini를 아이폰에 통합하는 계약을 2025년 중반까지 체결하고, 연말까지 적용하는 것이 목표라고 언급

■ 구글, 광고 네트워크 ADSense를 통해 일부 서드파티 AI 챗 봇에 광고 삽입

■ 구글, Gemini 챗 봇 앱 내 네이티브 이미지 수정 기능 추가

■ 메타, 2035년 생성 AI 제품을 통해 1.4조 달러 수익 창출 전망. 저작권 이슈 관련 법원 문서를 통해 공개

■ 구글, AI 모드 접근성 확대. 검색 이력 관리 등 신규 기능도 추가

■ 아마존, 자사 최대 규모의 AI 모델 Nova Premier 출시

■ 아마존, AI 어시스턴트 Q Business에 신규 기능을 추가해 기업의 고객 지원용 챗 봇 구축 지원

■ 아마존, Cursor와 Windsurf와 유사한 AI 기반 코딩 서비스 개발 보도

■ 팔란티어, 전장 정보 수집 차량이 미 육군으로부터 우수 평가 획득

■ 앤스로픽, AI 챗 봇 Claude와 앱 및 도구 연결성 강화. MCP 기반 신규 통합 기능 Integrations 도입. 또한 고급 연구 기능인 Advanced Research도 추가

■ 데이터도그, A/B 테스트와 기능 플래그 관리를 위한 플랫폼을 제공하는 Eppo를 2.2억 달러에 인수

■ AI2, 신규 소형 언어 모델 Olmo 2-1B 공개 에릭 슈미트가 후원하는 비영리 단체 FutureHouse가 과학 연구를 지원하기 위한 AI 도구와 플랫폼 4가지 공개

감사합니다.
👍4
샘 올트먼 & 사티아 나델라 회동

: 오픈AI의 신규 오피스에서 만나 최신 AI 발전 상황과 협력 관계 논의. SNS에 긍정적인 분위기의 사진도 공유

+ MS, xAI의 Grok 모델 Azure에서 호스팅 보도

: xAI와 제휴해 Grok 모델을 Azure에서 호스팅 예정

: Grok은 Azure AI Foundry 플랫폼을 통해 외부 개발자와 기업에게 제공. MS 프로덕트 팀을 통해 내부 활용 가능성도 존재

: Grok 호스팅이 학습까지 포함되는지는 미정이며, 독점 여부도 명확하지 않음
👍4
마이크로소프트(MSFT US) F3Q25 실적 - POWER

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

마이크로소프트가 전사 및 사업부 매출과 이익단 등 모든 부분에서 긍정적인 실적을 발표했습니다. 가이던스 또한 기대치를 상회했습니다.

점차 잃어가는 모습을 보였던 AI 주도주라는 스포트라이트를 되 찾을 수 있는 실적이라고 평가합니다.

F3Q Azure 성장률은 +35%(고정환율 기준)으로 컨센서스 +31.4% 및 가이던스 31~32%를 상회했습니다. Azure 내 AI 기여도도 16%p로 상승했네요

예상 대비 긍정적인 Azure 성장은 Non AI 부문 호조 때문입니다. 엔터프라이즈 고객 성장과 함께 지난 분기 이슈였던 영업 프로세스도 개선되고 있습니다.

아직 추세적으로 Non AI가 좋아지는 것은 아니지만, 바닥을 다지고 있습니다. AI 부문도 예상보다 빠른 캐파 공급 효과가 존재합니다.

F4Q Azure 성장률 가이던스 +34~35%도 컨센서스 +31.5%를 상회했습니다. 물론 수요가 빠르게 성장해 6월 이후 일부 공급 제약을 예상한 만큼 관련 추이는 지켜볼 필요가 있습니다.

CapEx 전망도 크게 달라지지 않았습니다. QoQ 성장 전망과 함께 임대 취소 노이즈에 대해서도 대응 성격의 코멘트를 남겼습니다.

클라우드와 AI는 기업의 성과 확대, 비용 절감, 성장 가속화에 필수적인 재료가 되고 있습니다. 다양한 사업에 걸쳐 AI 모멘텀을 확인하고 있는데요

AI 산업을 구성하는 스택 내 최적화와 효율성 향상은 비용 절감과 성능 향상으로 이어지고, AI 매출 마진에 대한 자신감으로 연결되고 있습니다. 단순 CapEx 성장보다 Azure 성장에 조금 더 주목할 필요가 있습니다.

속절없이 낮아졌던 12M FWD P/E(Factset)는 28.9배까지 상승했지만, 만 5년 평균 29.6배를 여전히 하회하고 있습니다. 돌아온 황제를 부담 없이 알현할 시간입니다.

자세한 내용은 발간된 보고서를 참고해주시기 바랍니다

보고서 링크: https://bit.ly/3GN4Aj4

(2025/5/2 공표자료)
👍31
아마존의 1Q25 클라우드와 AI 성적표

안녕하세요 삼성증권 글로벌 SW 담당 이영진입니다.

1Q AWS 매출은 292.7억 달러(+16.9%)로 컨센서스(Factset) 294.1억 달러를 소폭 하회했습니다. 다만 AWS 매출 성장율이 하락했네요

AWS 매출 성장 추이 (1Q23 → 1Q25) 15.8% → 12.2% → 12.3% → 13.2% → 17.2% → 18.7% → 19.1% → 18.9% → 16.9%

AWS 영업마진은 39.5%로 개선되었습니다(vs 컨센서스 35.8%)

AWS 영업마진 추이(1Q23 → 1Q25) 24.0% → 24.2% → 30.3% → 29.6% → 37.6% → 35.5% → 38.1% → 36.9% → 39.5%

■ 클라우드 및 AI 관련 주요 내용

- AI가 모든 고객 경험을 변화 시킬 것이라 전망. 공격적 투자 지속 의지

- AI 스택의 모든 레이어에서 광범위한 기능을 효율적 비용으로 제공하는 것이 목표

- AI 사업은 연 수십억 달러 규모 YoY 100% 이상 성장. 아직 초기 단계

- 생성 AI뿐 아니라 Non AI 워크로드도 고르게 성장. 신규 AI 프로젝트 + 클라우드 전환 지속

- 클라우드 수요가 강해 추가 용량이 도입되자마자 소비. 캐파 제약이 없었다면 더 많은 고객 지원과 매출 가능

- 하반기부터 인프라 투자를 점진적으로 확대할 계획

- Trainium 2 대규모로 도입 시작. 공급 병목(ex 마더보드)도 하반기 개선기대 

- 물류, 로보틱스, 쇼핑, 프라임 비디오, 광고 분야에도 AI 적극 도입

- Alexa+를 통해 행동 중심 에이전트 구축 노력

- AI 발전 초기는 생성성 향상과 비용 절감 목적. 이후 대형 모델 훈련에 초점. 현재는 코딩 에이전트 수요가 폭발

- AWS 마진 개선 요인은 1) 서버 활용 최적화와 소프트웨어 개선 2) 맞춤형 네트워크 장비 및 반도체 도입, 3) 데이터센터 전력 효율 개선

아마존의 클라우드 성적표는 다소 아쉬운 모습입니다. 하지만 빅3 하이퍼스케일러 모두 공격적 CapEx 투자 의지와 함께 AI 스택 내 효율성 강화를 강조하고 있습니다.

또한 AI 분야 외 견조한 클라우드 전환 트렌드도 주요 주제가 되었습니다. 섹터 내 여러 긍정적 포인트들을 확인하며, 개별 소프트웨어 기업의 실적 시즌은 계속됩니다.

(2025/5/2/ 공표자료)
👍3
구글 Gemini 2.5 Pro, 포켓몬 블루 클리어
👍6
[삼성 이영진] 팔란티어 테크놀로지(PLTR) 1Q25 실적

■ 1Q25 실적
: 매출 8.84억 달러(+39%)
vs 컨센 8.62억 달러, 가이던스 8.58~8.62억 달러
조정 영업이익 3.91억 달러
vs 컨센 3.6억 달러, 가이던스 3.54~3.58억 달러
: 정부 매출 4.87억 달러(+45%)
vs 컨센 4.6억 달러
: 커머셜 매출 3.97억 달러(+33%)
vs 컨센 4.04억 달러

■ 2Q25 가이던스
: 매출 9.34~9.38억 달러
vs 컨센 8.99억 달러
: 조정 영업이익 4.01~4.05억 달러
vs 컨센 3.72억 달러

■ FY25 가이던스
: 매출 38.9~39.02억 달러
vs 컨센 37.52억 달러, 기존 37.41~37.57억 달러
: 조정 영업이익 17.11~17.23억 달러
vs 컨센 15.78억 달러, 기존 15.51~15.67억 달러

https://investors.palantir.com/files/Palantir%20-%20Q1%202025%20Investor%20Presentation.pdf

감사합니다.
👍5
오픈AI 조직 구조 개편 발표. 영리 기업 전환 계획 축소

: 비영리 법인(OpenAI Inc.)의 통제 구조 유지. “AGI를 모든 인류에게 이롭게 개발한다”는 설립 사명도 변함없이 유지

: 기존의 이익 제한형(Capped-profit) 자회사 구조(LLC)는 공익기업(PBC, Public Benefit Corp)형태로 전환

: 새로운 구조는 투자 유치 유연성을 확보함과 동시에 사명 중심 운영에 대한 법적 의무를 갖추도록 설계됨. 주주 이익과 함께 공공의 이익을 법적으로 고려해야 함

: OpenAI Inc.는 신규 PBC의 통제권을 유지하며, 주요 주주로 참여하여, 다양한 공익 활동을 지원할 자원을 확보하게 됨

: 캘리포니아와 델라웨어 주 법무장관 포함 외부 법률 및 시민사회와의 광범위한 논의 결과

: 빠르게 성장 중인 AI 산업 내 오픈AI의 사명 중심성과 독립성 유지를 위한 대응

: PBC 구조를 통해 대규모 자금 조달 기반을 마련하고, AGI 개발 과정에서 안전성, 투명성, 공정한 접근성을 보장할 계획

https://openai.com/index/evolving-our-structure/
👍3🤔1
구글, Gemini 2.5 Pro 업데이트(05-06)

: 개발자를 위해 2.5 Pro의 업데이트 버전(I/O 에디션)을 프리뷰 형태로 조기 출시

: 프론트엔드 및 UI 개발 분야 성능 향상과 함께 기본적 코딩 작업에서도 의미있는 개선

: Google AI Studio와 Vertex AI를 통해 제공. 기존 Gemini 2.5 Pro 사용자는 자동으로 업데이트

https://developers.googleblog.com/en/gemini-2-5-pro-io-improved-coding-performance/
👍1