텐렙 – Telegram
텐렙
16.5K subscribers
12.9K photos
184 videos
442 files
58.2K links
Ten Level (텐렙)

해당 채널의 게시물은 단순 의견 및 기록용도이고 매수-매도 등 투자권유를 의미하지 않습니다.
해당 게시물의 내용은 부정확할 수 있으며 매매에 따른 손실은 거래 당사자의 책임입니다.
해당 게시물의 내용은 어떤 경우에도 법적 근거로 사용될 수 없습니다.

후원링크
https://litt.ly/ten_level
Download Telegram
2023.11.09 11:10:59
기업명: SNT다이내믹스(시가총액: 4,579억)
보고서명: 분기보고서 (2023.09)

매출: 1,344억(예상치: 0억)
영업익: 153억(예상치: 0억)
순익: 134억(예상치: 0억)

** 최근 실적 추이 **
2023.3Q 1,344억 / 153억 / 134억
2023.2Q 1,019억 / 96억 / 90억
2023.1Q 1,028억 / 91억 / 109억
2022.4Q 1,318억 / 98억 / -64억
2022.3Q 1,026억 / 68억 / 181억

공시링크: https://dart.fss.or.kr/dsaf001/main.do?rcpNo=20231109000146
제이시스메디칼, 중국 ‘아이메이커’와 제품 허가·판매 등 포괄적 파트너십 계약체결
Forwarded from 루팡
제너레이티브 AI가 엣지까지 확장되면서 AI PC와 스마트폰이 뜬다

Lenovo 및 Xiaomi와 같은 주요 기업은 엣지 AI 개발에 대한 노력을 강화하여 생성 AI 물결을 클라우드에서 엣지 및 최종 사용자 장치로 확장하고 있습니다.

AI 모델을 최종 사용자 장치에 통합하면 사용자 경험이 향상되고 가전제품 시장이 활성화되는 동시에 AI 모델의 실제 사용을 발전시키는 데에도 똑같이 중요합니다

1. 생성 AI와 스마트 터미널 결합의 장점

1) 개인 데이터는 클라우드에 업로드되지 않으므로 개인 정보 보호 및 데이터 보안 위험이 줄어듬
2) AI 모델은 최종 사용자 데이터베이스 및 개인 정보에 연결하여 잠재적으로 일반 AI LLM을 맞춤형 소형 모델로 변환하고 개별 사용자에게 맞춤형 서비스를 제공 가능
3) AI LLM을 압축하고 최종 사용자 하드웨어 및 소프트웨어를 최적화함으로써 엣지 AI는 운영 비용을 절감하고 응답 시간을 향상하며 서비스 효율성을 높임

2. 최종 사용자 장치용 통합 칩: CPU+GPU+NPU

AI LLM의 경량화 및 현지화는 칩 기술의 발전에 달려 있습니다. Qualcomm, Intel, NVIDIA, AMD 등과 같은 주요 제조업체에서는 이러한 방향으로 제품을 출시해 왔습니다.

PC용으로 설계된 Snapdragon X 시리즈의 첫 번째 프로세서인 Qualcomm의 Snapdragon X Elite는 수십억 개의 매개변수가 있는 대규모 언어 모델을 지원할 수 있는 전용 신경 처리 장치(NPU)를 통합합니다.

Intel의 최신 Meteor Lake 프로세서는 처음으로 PC 프로세서에 NPU를 통합하여 NPU와 프로세서의 AI 기능을 결합하여 PC에서 AI 기능의 효율성을 향상시킵니다. 엔비디아와 AMD도 엣지 AI 시장 진출을 위해 2025년 Arm 아키텍처 기반 PC 칩을 출시할 계획이다.

클라우드에서 에지 및 최종 사용자 장치로 LLM을 확장할 때 AI 컴퓨팅에 대한 증가하는 수요를 충족하기 위해 CPU+GPU+NPU의 통합이 프로세서 개발의 미래가 될 것으로 예상됩니다. 이는 Chiplet 기술의 중요성을 강조합니다.

동일한 시스템에서 CPU, GPU, NPU를 고속으로 연결함으로써 칩 수준의 이질성을 통해 데이터 전송 속도를 높이고 데이터 액세스 전력을 줄이며 데이터 처리 속도를 높이고 스토리지 액세스 전력을 낮추어 LLM의 매개변수 요구 사항을 충족합니다.

https://www.trendforce.com/news/2023/11/09/news-ai-pcs-and-smartphones-on-the-rise-as-generative-ai-expands-to-the-edge/
2023.11.09 11:16:44
기업명: 파라다이스(시가총액: 1조 3,415억)
보고서명: 연결재무제표기준영업(잠정)실적(공정공시)

매출액 : 2,856억(예상치 : 2,718억)
영업익 : 571억(예상치 : 503억)
순이익 : 353억(예상치 : 346억)

**최근 실적 추이**
2023.3Q 2,856억/ 571억/ 353억
2023.2Q 2,753억/ 549억/ 372억
2023.1Q 1,915억/ 190억/ 94억
2022.4Q 1,932억/ 182억/ -16억
2022.3Q 1,895억/ 383억/ 427억

공시링크: https://dart.fss.or.kr/dsaf001/main.do?rcpNo=20231109900168
전청조...
😱5
Forwarded from 머니보틀
[속보]‘내부정보 이용해 부동산 취득’ LH 직원, 무죄 확정

✍️1심에서 나온 징역 4년도 너무 작은건데 정말 너무하네요.
🔥10😱5💩51👍1
???!!!
💩4
미국과 중국이 이달 아시아태평양경제협력체(APEC) 정상회의를 계기로 개최를 추진 중인 조 바이든 대통령과 시진핑(習近平) 국가주석의 정상회담에서 군사 대화 재개를 발표할 준비를 하고 있다고 미국 액시오스가 8일 보도했다. 양국이 군사 소통 채널을 복원하면 대만 해협과 남중국해에서의 양국 간 군사적 갈등 안정화에 도움이 될 것으로 보인다.

액시오스에 따르면 왕이(王毅) 중국 외교부장은 지난 10월 28일 워싱턴DC를 방문했을 당시 중국이 군사 대화를 재개할 준비가 됐음을 미국 측에 시사했다. 백악관도 지난해 8월 낸시 펠로시 당시 하원의장의 대만 방문으로 중단된 미·중 군사 채널 재개를 핵심 우선순위로 두고 있어 양측이 의견 일치를 본 것으로 전해졌다. 백악관과 주미 중국대사관 등은 액시오스의 문의에 논평을 거부했다. 양국이 정상회담 성사 여부나 일정을 공개하지 않는 가운데 일본 교도(共同)통신은 미·중 정상회담이 15일로 최종 조율되고 있다고 미국 관리를 인용해 보도했다.

중국은 지난해 펠로시 당시 미 하원의장의 대만 방문에 반발해 미국과 군사 당국 간 소통 채널을 대부분 단절했다. 미국은 양국 군 간 우발적 충돌을 막으려면 군사 대화 재개가 시급하다고 보고, 기회가 될 때마다 중국에 이를 주문해왔다. 하지만 중국은 그동안 미국과 고위급 외교·경제 대화에 나서면서도 군사 분야에는 응하지 않았다. 다만 최근 미·중 군사 소통 채널 복구와 관련해 긍정적인 징후가 나타나는 추세였다.

미국 국방부 차관실의 중국 담당 책임자 크산티 카라스가 지난 10월 29∼31일 베이징(北京)에서 열린 안보 회의인 샹산(香山)포럼에 참석했다. 마크 램버트 국무부 중국 조정관 겸 부차관보는 지난 3일 베이징에서 훙량(洪亮) 중국 외교부 국경해양사(司) 사장(국장급)과 회담하고 해양 안보 현안을 논의했다. 6일에는 워싱턴DC에서 미·중 군축 담당이 만나 군축과 핵 비확산 관련 대화를 진행했다.

또 중국은 리상푸(李尙福) 전 국방부장이 미국의 제재 대상이라는 이유로 대화를 거부해왔는데, 지난달 리 전 부장이 해임되면서 대화의 걸림돌 하나가 사라졌다는 평가도 나온다.

https://v.daum.net/v/20231109115425760
👍1
ㄷ ㄷ
ㄴ사우디랑 MOU, 뭐 사우디 간다, 그런거 말고 이정도 나오게 되면… ㄷㄷ
남탓하지말고 내탓이오하면 보이는게많을텐데..
SK하이닉스가 엔비디아에 4세대 고대역폭메모리(HBM)인 HBM3를 공급한 것으로 전해지면서 시장 지배력을 한층 높이게 됐다. 챗GPT 공개 이후 생성형 AI 구동에 필요한 ‘HBM’ 수요가 폭발적으로 늘어나는 가운데 시장 큰손인 엔비디아를 고객사로 확보하면서 시장 주도권과 미래 실적이라는 두 마리 토끼를 잡게 됐다는 분석이 나온다.

9일 반도체 업계에 따르면 SK하이닉스는 올해 엔비디아에 고대역폭메모리HBM3를 독점 공급한 데 이어 내년 초 HBM3E 공급을 앞두고 있다.

HBM은 대량의 데이터를 신속하게 처리해야 하는 인공지능(AI) 작업에 필요한 초고성능 D램이다. 2세대 HBM2, 3세대 HBM2E, 4세대 HBM3, 5세대 HBM3E, 6세대 HBM4 순으로 개발된다. 현재 SK하이닉스 직원들은 미국 실리콘밸리에서 엔비디아 직원들과 근무하면서 HBM 개발 과정에 함께 참여한 것으로 알려졌다.

엔비디아는 AI 칩 분야의 최강자다. 전 세계 AI용 그래픽처리장치(GPU) 시장의 90% 이상을 점유하고 있다. 메모리 반도체 기업들의 핵심 고객으로 꼽힌다. SK하이닉스의 HBM3E는 엔비디아가 내년 상반기 출시할 계획인 차세대 AI용 플래그십 그래픽처리장치(GPU)인 B100에 탑재될 전망이다.

SK하이닉스가 HBM시장에서 쟁쟁한 경쟁사들을 제치고 엔비디아의 파트너로 선점된 데는 경쟁사들과의 수율 경쟁에서 우위를 점했기 때문으로 풀이된다. SK하이닉스는 최신 제품인 HBM3 시장의 절반을 장악하고 있는 것으로 추정된다. 지난해 HBM 시장에서 50%의 점유율로 삼성전자(40%)를 제치고 시장 선두를 차지했다.
아울러 높은 기술력을 바탕으로 시장을 개척하고 있다. SK하이닉스는 2013년 1세대 HBM을 세계 최초로 개발한 데 이어 2021년 4세대 HBM 제품인 HBM3를 세계 최초로 개발했다. 지난 4월에는 세계 최초로 12단 적층 24GB(기가바이트) 고용량 HBM3를 개발하는 데 성공했다.

올해 8월부터는 고객사에 5세대 제품인 HBM3E 샘플을 공급중으로 내년부터 본격 양산에 돌입할 계획이다. 오는 2026년에는 6세대 제품인 HBM4를 내놓을 계획이다.



SK하이닉스는 지난달 26일 올해 3분기 실적발표 컨퍼런스콜에서 “내년도 HBM3와 HBM3E 생산량(CAPA)이 모두 솔드아웃(완판)됐고 추가 고객 추가 문의도 들어오고 있는 상황”이라며 “내년을 포함해 중기적으로도 다양한 AI 플레이어들, 잠재고객, 프라이머 벤더(핵심 공급사) 등과 비즈니스 영역 확대를 논의하고 있다”고 말했다.
그러면서 “대다수 고객사와 2024년뿐 아니라 2025년도 기술 협업 및 캐파 논의를 하는 상황”이라고 덧붙였다.

SK하이닉스는 폭발적으로 늘어나고 있는 HBM 수요에 맞춰 관련 설비를 확장하고 있다. D램 주요 생산지인 이천 팹에 실리콘 관통 전극(TSV) 라인을 구축할 부지가 부족하자 수요 부진에 빠진 낸드를 생산하는 청주 팹을 TSV 기지로 삼고 구축에 속도를 내고 있다. 또 TSV 공정이 가능한 라인을 증설하기 위해 최근 ‘한화’를 새 장비사로 낙점한 것으로 전해졌다.

TSV는 D램 칩에 수천 개의 미세한 구멍을 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 첨단 패키징 기술이다. SK하이닉스는 해당 기술을 활용해 HBM 신제품 개발과 양산에 속도를 내고 있다.

한편 SK하이닉스는 고객별 맞춤형 요구를 만족시킬 시그니처 메모리를 만들어 나가겠다는 방침이다.

곽노정 SK하이닉스 사장은 최근 서울 성북구 고려대 서울캠퍼스에서 ‘메모리 반도체의 비전과 인재 육성’이라는 주제로 특별강연을 열고 “AI에 집중해 시그니처 메모리를 개발하고 있다”고 밝혔다.

이어 “이미 고대역폭 메모리(HBM) 같은 제품을 통해 AI용 메모리 분야를 선도하고 있다”며 “이 분야에서 경쟁력을 더욱 강화해 나갈 계획”이라고 강조했다

https://www.ebn.co.kr/news/view/1599124
👍2