AMD는 오라클 클라우드 인프라스트럭처(OCI)가 자사의 최신 OCI 컴퓨트 슈퍼클러스터 인스턴스인 BM.GPU.MI300X.8 구동을 위해 ROCm 오픈 소프트웨어와 AMD 인스팅트 MI300X 가속기를 채택했다고 27일 밝혔다. AMD MI300X를 탑재한 OCI 슈퍼클러스터는 수천억개의 파라미터로 구성 가능한 AI 모델에서 OCI의 다른 가속기와 동일한 초고속 네트워크 패브릭 기술을 활용, 단일 클러스터에서 최대 1만6384개의 GPU를 지원한다. 업계 최고 수준의 메모리 용량 및 대역폭을 제공하고 높은 처리량을 필요로 하는 대규모언어모델(LLM) 추론 및 트레이닝을 포함한 까다로운 AI 워크로드 실행이 가능하도록 설계된 OCI 베어 메탈 인스턴스는 이미 파이어워크 AI 등의 기업에서 채택된 바 있다. AMD 데이터 센터 GPU 비즈니스 기업 부사장 겸 총괄 매니저인 앤드류 디크만은 “AMD 인스팅트 MI300X 및 ROCm 오픈 소프트웨어는 OCI AI 워크로드와 같이 중요도가 높은 분야를 지원하며 이를 통해 신뢰할 수 있는 솔루션으로서 성장을 이어가고 있다”며 “이러한 솔루션이 성장하는 AI 집약적 시장으로 한층 확장됨에 따라 해당 조합은 성능과 효율성, 시스템 설계 유연성을 개선해 OCI 고객에게 혜택을 제공할 것”이라고 말했다. 오라클 클라우드 인프라스트럭처 소프트웨어 개발 부문 수석 부사장인 도널드 루는 “AMD 인스팅트 MI300X 가속기의 추론 기능은 OCI의 광범위한 고성능 베어 메탈 인스턴스에 추가돼 AI 인프라에 일반적으로 사용되는 가상화 컴퓨팅의 오버헤드를 제거한다”며 “AI 워크로드를 가속화하고자 하는 고객에게 합리적인 가격대로 더 많은 선택권을 제공하게 돼 기쁘다”고 말했다. OCI는 더 큰 배치 사이즈에서도 지연 시간 최적화 사용 사례 지원할 수 있는 AI 추론 및 트레이닝 능력, 싱글 노드에서 최대 규모의 LLM 모델에 적합한 성능을 제공하는 것에 초점을 맞추고 있다. AMD 인스팅트 MI300X는 이러한 OCI의 기준에 따른 광범위한 테스트를 거쳤으며 AI 모델 개발자들의 주목을 받고 있다. 파이어워크 AI는 생성형 AI를 구축하고 배포할 수 있도록 설계된 빠른 속도의 플랫폼을 제공한다. 100개 이상의 모델을 보유한 파이어워크 AI는 AMD 인스팅트 MI300X이 탑재된 OCI의 성능과 이점을 활용하고 있다. 파이어워크 AI CEO인 린 퀴아오는 “파이어워크 AI는 기업들이 광범위한 산업 및 사용 사례에 걸쳐 복합적인 AI 시스템을 구축 및 배포하도록 돕는다”며 “AMD 인스팅트 MI300X 및 ROCm 오픈 소프트웨어에서 사용 가능한 메모리 용량은 고객들이 보유한 모델을 지속적으로 성장시키고 이를 통해 서비스 확장해 나갈 수 있도록 지원한다”고 밝혔다. solidkjy@fnnews.com 구자윤 기자
2024-09-27 10:44:38"가우디3의 장점이라면 인텔은 특정 벤더에 종속되지 않는 개방성을 지향한다. 또 가격 효율성 측면에서 가장 강력한 대체제가 될 수 있다. 조만간 주요 OEM에서 오늘 출시한 제품을 탑재한 서버를 국내 출시할 계획인 만큼 국내 고객들도 인텔 신제품의 강점을 빠른 시일 안에 경험할 수 있을 것이다” 인텔 데이터센터 및 AI 사업부 한국 영업 총괄 나승주 상무는 26일 서울 영등포구 FKI타워에서 가진 데이터센터용 신제품 출시 기자간담회에서 ‘제온 6 P-코어’와 인공지능(AI) 가속기 ‘가우디3’를 소개하면서 이 같이 말했다. '가우디3'는 인텔이 실적 부진으로 창사 이래 최대 위기에 빠진 가운데 엔비디아에 도전장을 내밀면서 구원 투수 역할을 할지 주목 받는 제품이다. 먼저 인텔 제온6 P-코어는 이전 세대 대비 2배 높은 성능을 제공한다. 코어 수가 늘어나고 메모리 대역폭이 2배 가량 증가했으며 모든 코어에 내장 AI 가속 기능을 갖춘 것이 특징이다. 엣지에서 데이터센터 및 클라우드 환경에 이르기까지 AI 성능 요구를 충족하도록 설계됐다는 것이 회사 측 설명이다. 가우디3는 대표적인 AI 가속기인 엔비디아 H100, AMD MI300X 등과 경쟁하는 제품이다. 지난 4월 인텔은 ‘가우디3’가 H100보다 전력 효율이 두 배 이상 높고 AI 모델을 1.5배 더 빠르게 실행할 수 있다고 강조한 바 있다. 가우디3는 64개의 텐서 프로세서 코어(TPC)와 8개의 행렬 곱셈 엔진(MME)을 통해 심층 신경망 연산을 가속화한다. 가우디3는 학습 및 추론 작업을 위한 128GB의 HBM2e 메모리와 확장 가능한 네트워킹을 위한 24개의 200Gb 이더넷 포트를 갖추고 있다. 인텔은 최근 IBM과 협력해 IBM 클라우드에서 가우디3 AI 가속기를 서비스 방식으로 배포 중이며, 델 테크놀로지스도 현재 가우디3와 제온6를 활용한 RAG 기반 솔루션을 공동 설계하고 있다. 아울러 인텔은 네이버와 스타트업, 학계 등과 함께 AI 반도체 생태계 확장에 협력을 이어가고 있다고 밝혔다. 양사는 국내 스타트업과 대학들이 AI 연구를 할 수 있도록 가우디 기반의 IT 인프라를 제공하고 있다. 또 네이버클라우드는 '가우디 2' 도입 여부를 정하기 위해 테스트를 진행하고 있다. 인텔코리아 박민진 상무는 "연말까지는 산·학 생태계를 넓히는 차원에서 22개 대학에 클라우드 인스턴스를 제공하고 있다"며 "(네이버가 가우디2) 가성비에 대한 테스트는 지속적으로 하고 있으며 아직 상용 도입 계획은 밝히지 않은 상태"라고 설명했다. solidkjy@fnnews.com 구자윤 기자
2024-09-26 10:12:18[파이낸셜뉴스] 가온칩스가 삼성전자와 협력해 일본 프리퍼드 네트웍스의 2나노 기반 인공지능(AI) 가속기 수주에 성공했다. AI 가속기의 공동 개발 및 양산 후 글로벌 업체에 공급할 것으로 기대되면서 장중 주가가 강세다. 9일 오후 2시 3분 현재 가온칩스는 전 거래일 대비 5.68% 오른 7만700원에 거래되고 있다. 삼성전자는 이날 서울 코엑스에서 '삼성 파운드리 포럼(Samsung Foundry Forum)'과 '세이프 포럼(SAFE, Samsung Advanced Foundry Ecosystem Forum) 2024'를 개최하고 국내 시스템반도체 생태계 강화 성과와 향후 지원 계획을 공개했다. 삼성전자는 AI를 주제로 삼성 파운드리만의 공정기술, 제조 경쟁력, 에코시스템, 시스템반도체 설계 솔루션 등을 발표했다. 특히 삼성전자는 가온칩스와 AI반도체에 적합한 저전력, 고성능 반도체를 구현하기 위한 'GAA(Gate-All-Around)' 공정과 2.5차원 패키지 기술 경쟁력을 바탕으로 선단 공정 서비스를 강화한다는 전략이다. 삼성전자는 국내 디자인솔루션파트너(DSP) 업체인 가온칩스와 최첨단 공정 기반 턴키 서비스 수주 성과를 밝혔다. 프리퍼드 네트웍스의 2나노 기반 AI가속기 반도체를 2.5차원(I-Cube S) 첨단 패키지를 통해 양산한다는 계획이다. 한편 삼성전자는 2022년 세계 최초로 3나노 GAA(Gate-All-Around) 구조 기반 파운드리 양산을 성공한 바 있다. dschoi@fnnews.com 최두선 기자
2024-07-09 14:04:48[파이낸셜뉴스] 삼성전자가 차세대 파운드리(반도체 위탁생산) 선단공정인 2나노 기반의 인공지능(AI) 가속기 반도체 수주 신호탄을 쐈다. 삼성전자만의 강점인 'AI 솔루션 턴키(일괄 생산) 서비스'를 활용한 것으로, 향후 TSMC와 2나노 경쟁에서 반전을 마련할지 주목된다. 2나노 기반 AI반도체 첫 수주 삼성전자는 9일 서울 삼성동 코엑스에서 '삼성 파운드리 포럼 2024'와 '세이프 포럼 2024'를 개최하고 국내 시스템반도체 생태계 강화 성과와 향후 지원 계획을 공개했다. 파운드리포럼은 삼성전자가 팹리스(반도체 설계업체) 고객과 생태계 구성원들에게 기술 현황과 미래 비전을 공유하는 자리로, 올해는 미국에 이어 두 번째로 열렸다. 최시영 삼성전자 파운드리 사업부장(사장)은 기조연설을 통해 "내년 2나노 첫번째 공정을 시작해 2027년엔 후면전력공급 기술을 도입한 SF2Z(2나노 공정)를 제공할 계획"이라며 "게이트올어라운드(GAA) 혁신을 지속하고 있으며 예정대로 2027년엔 최첨단 1.4나노 공정을 제공할 예정"이라고 밝혔다. 특히, 2.5차원 패키지 기술 경쟁력을 바탕으로 선단 공정 서비스를 강화한다는 전략이다. 최 사장은 "고성능, 저전력 AI 솔루션을 완전히 통합해 제공할 수 있는 기업은 전 세계에서 단 하나 삼성전자 뿐"이라며 "데이터센터의 신호 손실과 발열로 인한 비용 증가를 해결하기 위해 실리콘 포토닉스 기술을 2027년 완성해 종합 패키지인 '원스톱 AI 솔루션'을 완성할 것"이라고 강조했다. 삼성전자는 이날 국내 디자인 솔루션 파트너(DSP) 업체인 가온칩스와의 협력해 최첨단 공정 기반 턴키 서비스를 수주했다고 공식 발표했다. 일본 프리퍼드 네트웍스(PFN)에 공급할 2나노 기반 AI 가속기 반도체를 2.5차원 첨단 패키지를 통해 양산한다는 계획이다. AI 가속기는 AI를 구현하고 실행하기 위해 정보처리와 연산에 특화된 하드웨어다. 크게 그래픽처리장치(GPU)와 신경망처리장치(NPU)로 나뉘는데, GPU는 엔비디아가 시장의 90% 이상을 차지하고 있다. PFN은 그간 2세대 AI 반도체 제작을 TSMC에 맡겨왔다. 삼성전자가 TSMC와 2나노 공정 기술을 놓고 경쟁을 벌이는 가운데, 이번 수주로 파운드리 사업에 반전을 기대하고 있다. 국내 파운드리 생태계 강화 삼성전자는 한국의 우수 팹리스 업체들이 고성능컴퓨팅(HPC)과 AI 분야에서 영향력을 빠르게 확대할 수 있도록 적극적인 지원도 약속했다. 삼성은 단일 웨이퍼(반도체 원판)에 여러 종류의 설계를 배치해 제조 비용을 절감하고 완성도 높은 반도체를 개발할 수 있도록 멀티프로젝트웨이퍼(MPW) 서비스를 운영 중이다. 삼성전자 관계자는 "올해 MPW 서비스 총횟수는 4나노 공정과 고성능 전력반도체를 생산하는 BCD 130나노 공정을 합쳐 32회로, 작년 대비 약 10% 증가했다"라며 "2025년에는 35회까지 확대할 계획"이라고 밝혔다. 이어 "국내 팹리스와 DSP 수요가 많은 4나노는 내년 MPW 서비스를 1회 추가 운영해 국내 첨단 반도체 생태계 확대를 적극 지원할 계획"이라고 덧붙였다. 삼성전자 파운드리는 고객사 확보를 통한 생태계 확대에 주력하고 있다. 현재 100개 가량의 파트너와 삼성 파운드리 생태계를 구성 중이다. 특히 전자설계자동화(EDA) 파트너 수는 23개로, 경쟁사인 TSMC를 앞섰다. 한편, 포럼에서는 국내 주요 팹리스 기업들이 삼성 파운드리와 협력 성과를 소개했다. 차량용 반도체 기업 텔레칩스 이장규 대표는 "350나노부터 5나노 공정에 이르기까지 삼성 파운드리와 함께 만들어온 칩이 43개에 이른다"고 말했다. AI 팹리스 스타트업 리벨리온의 오진욱 CTO는 "삼성 파운드리 5나노에 이어 4나노 공정으로 차세대 AI 가속기 '리벨'을 개발 중"이라고 밝혔다. hoya0222@fnnews.com 김동호 기자
2024-07-09 11:09:49한국과학기술원(KAIST) 전기 및 전자공학부 정명수 교수팀이 엔비디아(NVIDIA)에 맞설 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다. 정 교수가 창업한 반도체 팹리스 스타트업 '파네시아(Panmnesia)'의 초고속 컴퓨터 연결 링크(CXL) 컨트롤러와 CXL-그래픽 처리장치(GPU) 프로토타입을 활용해 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행했다. 8일 KAIST에 따르면 연구진은 이를 위해 CXL이 활성화된 고용량 GPU 장치의 메모리 읽기·쓰기 성능 저하 원인을 분석해 개선하는 기술과 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 정 교수는 "CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 수 있을 것"이라고 말했다. 최신 GPU의 내부 메모리 용량은 수십 기가바이트(GB)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다. 대규모 AI 모델이 요구하는 메모리 용량을 제공하기 위해 업계에서는 일반적으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU의 높은 가격으로 인해 총소유비용(TCO)을 과도하게 높이는 문제를 일으킨다. 연구진은 CXL-GPU 장치의 메모리 읽기·쓰기 성능이 저하되는 원인을 분석해 이를 개선하는 기술을 개발했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발해 GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 설계했다. 그 결과, GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없이 바로 쓰기가 실행돼 성능 저하 문제를 해결했다. 또 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다. 이에따라 GPU 장치가 실제 데이터를 필요로 할 때는 캐시 메모리에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다. 연구진은 이번에 개발한 기술을 오는 7월 산타클라라 USENIX 연합 학회와 핫스토리지의 연구 발표장에서 결과를 선보인다. monarch@fnnews.com 김만기 기자
2024-07-08 18:03:28[파이낸셜뉴스] 한국과학기술원(KAIST) 전기 및 전자공학부 정명수 교수팀이 엔비디아(NVIDIA)에 맞설 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다. 정 교수가 창업한 반도체 팹리스 스타트업 '파네시아(Panmnesia)'의 초고속 컴퓨터 연결 링크(CXL) 컨트롤러와 CXL-그래픽 처리장치(GPU) 프로토타입을 활용해 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행했다. 8일 KAIST에 따르면 연구진은 이를 위해 CXL이 활성화된 고용량 GPU 장치의 메모리 읽기·쓰기 성능 저하 원인을 분석해 개선하는 기술과 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 정 교수는 "CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 수 있을 것"이라고 말했다. 최신 GPU의 내부 메모리 용량은 수십 기가바이트(GB)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다. 대규모 AI 모델이 요구하는 메모리 용량을 제공하기 위해 업계에서는 일반적으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU의 높은 가격으로 인해 총소유비용(TCO)을 과도하게 높이는 문제를 일으킨다. 연구진은 CXL-GPU 장치의 메모리 읽기·쓰기 성능이 저하되는 원인을 분석해 이를 개선하는 기술을 개발했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발해 GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 설계했다. 그 결과, GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없이 바로 쓰기가 실행돼 성능 저하 문제를 해결했다. 또 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다. 이에따라 GPU 장치가 실제 데이터를 필요로 할 때는 캐시 메모리에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다. 연구진은 이번에 개발한 기술을 오는 7월 산타클라라 USENIX 연합 학회와 핫스토리지의 연구 발표장에서 결과를 선보인다. monarch@fnnews.com 김만기 기자
2024-07-08 14:16:10[파이낸셜뉴스] 과학기술정보통신부 이종호 장관이 17일 기초과학연구원(IBS) 중이온가속기연구소를 방문해 중이온가속기 시범 운영 준비 현황을 점검했다. 이종호 장관은 중이온가속기 현장에서 "최근 우주, 반도체 등 첨단 분야의 연구에 있어서 미시적인 입자를 관측하거나 입자간 충돌 및 생성이 가능한 대형 가속기의 중요성이 매우 높아지고 있다"며, "아직은 초기 단계인 중이온가속기가 당초 목표대로 세계 최고 수준의 가속기 구축으로 이어질 수 있도록 최선의 노력을 다해 달라"고 당부했다. 또 "이용자와의 지속적인 소통과 협업을 통해 안정적인 이용자 지원 방안도 모색할 수 있기를 바란다"고 언급했다. 이 장관은 중이온 빔 활용 시범 운영 준비 연구자들을 격려하는 한편, 현장의 의견을 수렴하는 자리도 가졌다. 중이온가속기는 우리나라 최대 규모의 기초과학 프로젝트로 2021년 12월 1단계 저에너지 구간 구축이 완료됐으며, 현재 고에너지 가속장치 구축을 위한 2단계 선행 R&D를 추진하고 있다. 지난해 5월 23일 저에너지 구간의 가속기 빔 최초 인출을 확인하고, 올해 6월 말부터 8월까지 가속기 시범 운영을 통해 성능을 점검하고 지속적으로 개선해 나갈 계획이다. monarch@fnnews.com 김만기 기자
2024-06-17 14:04:24【실리콘밸리=홍창기 특파원】 조 바이든 미국 정부가 중국 기업의 접근 우려 등을 이유로 중동 지역 국가에 대한 대형 인공지능(AI) 가속기 수출 대한 허가를 늦추고 있다. AI 가속기는 AI를 학습시키는 데 특화된 칩을 뜻한다. 그래픽 처리장치(GPU)와 고대역폭 메모리(HBM), 신경망 연산장치(NPU) 등 반도체를 조합해 만든다. 30일(현지시간) 미국 언론에 따르면 바이든 정부는 최근 몇 주간 사우디아라비아를 비롯해 아랍에미리트(UAE)와 카타르 등에 대한 대규모 AI 가속기 제품 판매 허가 신청에 대해 답변하지 않거나 지연시켰다. 미국이 대형 AI 가속기 수출 속도를 늦추는 것은 해당 첨단 반도체 칩이 해외에 판매되는 것에 대한 포괄적인 전략을 개발하기 위한 시간을 확보하기 위한 차원이라는 진단이다. 미국 정부는 수출 통제 조치에 따라 미국의 최첨단 반도체를 구매할 수 없는 중국 기업들이 중동의 데이터 센터를 통해 최첨단 칩에 접근할 수 있다고 우려하고 있는 것으로 전해졌다. 현재 중동에서 사우디아라비아와 UAE가 AI 데이터 센터 구축에 사용되는 반도체 칩을 대량으로 수입하려고 하고 있다. 미 상무부는 "가장 첨단의 기술과 관련해 우리는 범부처 간 프로세스를 통해 광범위한 실사와 첨단 칩을 전 세계에 판매하려는 회사의 허가 신청서에 대한 철저한 검토를 진행한다"고 밝혔다. 이어 상무부는 "우리는 미국의 기술 생태계를 보호하기 위해 중동 및 전 세계 파트너와 긴밀하게 협력하기 위해 노력하고 있다"고 말했다. 이에 앞서 미국 상무부는 지난해 10월 대(對)중국 반도체 수출통제 강화 조치를 발표했다. 이 조치에서 상무부는 중국으로 이전될 위험이 있는 40개국 이상에도 수출시 허가를 별도로 받을 것을 요구했다. 이에 따라 미국 기업이 사우디아라비아나 UAE 등으로 첨단 반도체를 수출하기 위해서는 별도 허가를 받아야 한다. theveryfirst@fnnews.com 홍창기 기자
2024-05-31 07:34:44델 테크놀로지스는 자사의 고성능 인공지능(AI) 서버 ‘델 파워엣지 XE9680’에 ‘인텔 가우디 3’ AI 가속기 지원을 추가한다고 15일 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하도록 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 폭넓은 선택지를 제공한다는 계획이다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 그래픽처리장치(GPU)를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화 할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블 프로세서 2개를 장착했으며 가장 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화돼 있다. 인텔 가우디 3 AI 가속기를 탑재한 ‘파워엣지 XE9680’ 서버 모델은 올해 안에 국내 출시될 계획이다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 필수적인 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 향상시킨다. 김경진 한국 델 테크놀로지스 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고 새로운 표준을 끊임없이 제시하고 있다”며 “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 말했다. solidkjy@fnnews.com 구자윤 기자
2024-04-15 11:02:51[파이낸셜뉴스]부산 기장군은 오는 7일 오후 2시 장안읍 동부산농협 본점에서 서울대병원 주관으로 중입자 치료 주민설명회를 연다고 5일 밝혔다. 이번 설명회는 최근 기장중입자치료센터 증측과 리모델링 착공식 등으로 중입자 치료에 대한 지역주민들의 관심이 높아져 주민들의 이해를 돕기 위해 마련됐다. 설명회는 서울대병원 중입자가속기사업단장의 사업추진 경과보고를 시작으로 방사선의학과 교수의 방사선치료 개요, 중입자 치료 개요와 치료과정, 주민의견 청취와 질의응답 순으로 진행된다. 군 관계자는“이번 설명회로 중입자 치료의 장점과 일반 방사선 치료와의 차이점을 안내하고, 중입자 치료의 필요성과 이해도를 높일 수 있을 것이다”라고 말했다. 한편, 기장중입자치료센터는 지난달 7일 증축과 리모델링 공사 착공식을 가졌다. 오는 2026년 1월 준공 후 장치 설치와 최종 인수시험을 거쳐 2027년 중 환자치료를 개시할 예정이다. 425_sama@fnnews.com 최승한 인턴기자
2024-03-05 15:38:24