뉴스클리핑 [씨플랫폼] 4월 5주차 뉴스클리핑 페이지 정보 작성자 관리자 댓글 0건 조회 128회 작성일 24-04-29 10:07 목록 본문 2024-04-29 월요일Focus News아이티센, 164억 CB 조기 전환·소각···'오버행' 털었다2024.04.23아이티센(대표 강진모)이 총 164억 원 규모의 전환사채(CB) 물량을 모두 해소했다. 지난 2월 부산 디지털자산거래소(BDX) 본계약을 체결했다. 출자자 납입 완료 이후 내달 정식 법인 출범을 앞뒀다. 연내 서비스 오픈을 목표로 ...…전자신문(https://www.etnews.com/20240423000286)공공 클라우드 네이티브 컨설팅 사업, 클로잇 등 승기 잡아2024.04.24업계 경쟁이 치열했던 4차 권역(13억7000만원)은 클로잇이 수주했다. 이 사업은 근로복지공단(고용산재보험 토탈서비스)을 비롯해 경남교육청교육원(교육행정기관/학교 통합누리집), 울주군(스마트 방사능방재 ...…전자신문(https://www.etnews.com/20240424000127)IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보2024.04.26IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다.지디넷코리아(https://zdnet.co.kr/view/?no=20240426115428)IBM, 하나캐피탈 이중화 및 재해복구 스토리지 구축... 사업 연속성 지원2024.04.23IBM은 하나캐피탈의 차세대 전산시스템 구축 사업인 ‘디지털 트랜스포메이션 리빌드’의 하나로 데이터센터 내 이중화(High Availability) 및 센터 간 ...보안뉴스(https://www.boannews.com/media/view.asp?idx=129153&page=1&kind=3)효성인포메이션시스템 “국내 하이엔드 스토리지 시장점유율 10년 연속 1위”2024.04.25양정규 효성인포메이션시스템 대표는 “VSP 하이엔드 스토리지는 오랜 기간 시장을 리드하며 독보적 기술력은 물론 민첩한 고객지원 서비스로 높은 신뢰를 얻고 ...…전자신문(https://www.etnews.com/20240425000303)효성인포·태영소프트·카파정보기술, 헬스케어 사업 업무 협약 체결2024.04.22효성인포메이션시스템(대표 양정규)은 차세대 의료영상저장전송시스템(PACS) 솔루션 전문기업 태영소프트(대표 나승호), IT 서비스 전문기업 카파정보기술(대표 이정필)과 병원·바이오·헬스케어 시장 데이터 레이크 및 랜섬웨어 대응 위한 업무 협약을 체결했다고 22일 밝혔다. 3사는 이번 협약을 통해 태영소프트의 PACS 솔루션 'ZeTTA'와 효성인포메이션시스템의 오브젝트 스토리지 'HCP'를 연계, 폭증하는 의료 데이터의 효과적인 저장·관리를 위한 데이터 레이크 사업 및 랜섬웨어 대응에 대한 기술력과 노하우를 공유한다. 또한 각 사가 보유한 기술력, 고객 레퍼런스, 사업 역량을 기반으로 공동 영업 및 마케팅 활동을 펼쳐 시장을 확대하고 시너지를 높일 계획이다. 병원·바이오·헬스케어 분야에서는 폭증하는 의료 데이터의 효율적 활용과 다양한 신기술 접목을 위한 의료시스템 고도화가 중요하다. PACS는 MRI, CT 등 영상 진단장치를 통해 진단한 영상을 디지털 형태로 저장하고, 판독과 진료기록을 전송·검색하는데 필요한 기능을 통합 처리하는 디지털 의료 영상 저장 전송 시스템이다. 상급종합병원을 중심으로 의료영상 기반 빅데이터 활용을 위한 차세대 연구용 PACS의 활용이 높아지고 있으며, 다양한 AI 기술과 연계한 플랫폼으로 진화를 거듭하고 있다. 태영소프트는 ZeTTA PACS 솔루션의 대용량 데이터 관리, 빠른 의료영상 로딩, 검색 속도, 시스템 안정성, 직관적 사용자 환경 등 기술적 강점과 함께 의료진 요구사항을 즉각 반영하는 만족도 높은 기술 지원을 제공한다. 이를 통해 상급종합병원 PACS 신규 및 교체 프로젝트를 성공적으로 연이어 구축하며 시장 점유율을 높이고 있다. 효성인포메이션시스템의 HCP는 비정형 데이터를 비롯한 대용량 데이터의 효율적인 저장 및 관리를 지원하는 오브젝트 스토리지다. 대용량 및 고성능 데이터 레이크 환경을 제공하고, 메타 데이터 관리를 통한 빅데이터 분석 기반을 지원한다. 파일 위변조·수정 방지, 버저닝 등 다양한 접근제어 기능을 이용해 랜섬웨어 등 보안 공격으로부터 안전하게 데이터를 보호할 수 있다. 양사는 이번 업무 협약을 통해 제품간 연동을 위한 API를 개발하고 노하우와 솔루션을 공유하며 최상의 PACS 솔루션 기술과 인프라 환경을 제공할 계획이다. 여기에 카파정보기술의 풍부한 사업 경험과 PACS 솔루션 전담 영업 인력, 엔지니어들의 기술 역량을 더해 시장 확대에 박차를 가할 전략이다. 효성인포메이션시스템 양정규 대표는 “3사간 협업으로 경쟁력 있는 PACS 솔루션과 대용량 데이터를 안전하게 처리할 수 있는 인프라 환경을 지원함으로써 병원·바이오·헬스케어 분야에서 IT 혁신을 위한 최상의 전략을 제시할 것”이라고 밝혔다.지디넷코리아(https://zdnet.co.kr/view/?no=20240422092739)HPE아루바, 고성능 와이파이 7 AP 출시2024.04.25HPE는 시장 내 타제품 대비 최대 30% 더 많은 무선 트래픽 용량을 제공하는 와이파이 7 액세스 포인트(AP)를 출시한다고 25일 밝혔다. 새로운 AP는 네트워크 보안을 강화하고 위치 기반 서비스를 개선하여 까다로운 엔터프라이즈 AI, IoT(사물 인터넷), 위치 및 보안 애플리케이션에 연결성을 제공한다. 엔터프라이즈 무선 분야 시장 리더이자 가트너 매직 쿼드런트 엔터프라이즈 유무선 LAN 인프라 부문에서 18년 연속 리더로 선정된 HPE 아루바 네트워킹은 표준 요구사항을 뛰어넘는 새로운 와이파이 7 AP로 혁신을 이어가고 있다. HPE의 울트라 트라이밴드 하드웨어를 통해 5GHz 및 6GHz 대역을 활용하고, 대역 간 불필요한 경합을 자동 및 지속적으로 제거해 성능을 더욱 높였다. HPE 아루바 네트워킹 센트럴에서 관리하는 새로운 HPE 아루바 네트워킹 AP는 지그비, 블루투스, 또는 듀얼 USB 인터페이스 등 광범위한 IoT 프로토콜을 내장 하드웨어 지원 서비스로 제공함으로써 IoT 네트워크 오버레이를 배포할 필요가 없다. AP는 카메라, 모터 센서, 에너지 센서, 동작 감지기 등 기업들이 네트워크 엣지에 배포하는 IoT 디바이스의 증가에 대비해 안전한 연결 플랫폼을 제공한다. IoT 기기들이 AI 훈련 및 추론을 위한 많은 양의 데이터 소스를 생성함에 따라, HPE는 350여곳 이상의 기술 파트너와의 협력을 통해 비즈니스 솔루션 생태계를 더욱 확장함으로써 기업고객이 IoT 소스 데이터를 효율적으로 캡처, 보호, 전송 및 활용하여 실시간 비즈니스 인사이트를 도출하고 고유의 AI 데이터 레이크를 구축할 수 있도록 했다. 이러한 혁신 기술을 바탕으로 기업고객은 데이터를 활용하여 예측 관리, 디지털 트윈, 고객용 개인화된 사용자 경험과 같은 솔루션을 위한 AI 모델을 훈련하고 적용할 수 있다. 새롭게 출시된 HPE 아루바 네트워킹 730 시리즈 캠퍼스 AP는 까다로운 사용 사례를 위해 와이파이 성능을 향상시켰다. UTB 필터링은 5GHz 및 6GHz 대역의 인접 채널에서의 간섭을 제거해 성능과 용량을 극대화하고, 조직이 두 대역을 동시에 사용할 수 있는 유연성을 제공한다. 정책 기반 액세스 제어 및 레이어 7 애플리케이션 방화벽은 IoT 가시성 향상을 위한 HPE 아루바 네트워킹 센트럴 클라이언트 인사이트와 자동화된 다이내믹 세그먼테이션 등 보안 우선 무선 기능을 기반으로 하여 사용자 및 IoT 디바이스에 역할 기반 액세스를 제공한다. 추가 기능으로는 유선 데이터 보호를 AP까지 확장하는 새로운 링크 레벨의 암호화(MACsec) 기능과 대학 캠퍼스와 같은 그룹 환경에서 사용자 디바이스의 안전한 셀프서비스 온보딩을 제공하는 개인 무선 네트워크 모드가 있다. HPE 아루바 네트워킹 센트럴의 IoT 운영 대시보드는 디바이스 온보딩을 간소화하고, 벤더 특정 IoT 오버레이 네트워크의 과도한 오버헤드를 제거하여 AP가 IoT 장치의 커넥터 및 로컬 처리 요소로 작동하게 하고, IoT 장치가 제3자 IoT 서비스와 직접 통신할 수 있게 한다. 듀얼 전용 블루투스 및 지그비 라디오는 고밀도 IoT 환경을 지원하며, 듀얼 USB 포트는 독점 프로토콜을 사용하는 광범위한 IoT 디바이스에 강력한 연결성을 제공한다. AP의 통합형 비영구 외부 안테나는 까다로운 무선 주파수(RF)를 위해 설계되었다. HPE 아루바 네트워킹 730 시리즈 AP는 이전 HPE 모델보다 2배 더 많은 SDRAM 및 플래시 메모리를 갖추고 있어 애플리케이션별 컨테이너를 AP 자체에서 실행할 수 있다. 이는 데이터 전송을 간소화하고 데이터를 로컬에서 처리하여 온도나 동작과 같은 실시간 조건에 보다 신속하게 대응할 수 있다. HPE 아루바 네트워킹 730 시리즈 AP는 최초로 신규 와이파이 위치 표준을 활용했다. 이를 통해 실시간, 몰입형 및 산업용 사용 사례를 위해 1미터 이내의 정밀도를 제공하는 향상된 위치 인식 서비스와 자체 위치 네트워크를 활성화하는 데 도움이 되는 IEEE 802.11az 표준을 지원한다. 추가 기능으로는 사용자 참여를 높이고 귀중한 자산을 추적하여 손실을 줄일 수 있는 양방향 IoT 위치 데이터를 위해 저전력 블루투스(BLE) 5.4를 통합하는 글로벌 내비게이션 위성 시스템(GNSS) 수신기와 바닥 레벨 매핑용 기압 센서가 있다. AI 기술을 활용한 동적 절전 모드를 통해 기업의 에너지 사용량과 비용을 절감할 수 있다. 오는 7월 전 세계에 출시되는 HPE 아루바 네트워킹 730 시리즈 AP는 부분적으로 영구 보증을 제공한다. HPE 아루바 네트워킹 730 시리즈 캠퍼스 AP 관리 기능은 HPE 아루바 네트워킹 센트럴을 통해 구독형 서비스로 이용할 수 있다. HPE 아루바 네트워킹 센트럴은 독립형 SaaS 제품으로 이용할 수 있을 뿐만 아니라, HPE 그린레이크(NaaS) 구독형 서비스에도 포함되어 있으며, HPE 그린레이크 엣지-투-클라우드 플랫폼을 통해 이용할 수 있다. 스튜어트 스트릭랜드 HPE 아루바 네트워킹 무선 부문 최고기술책임자(CTO)는 “HPE 아루바 네트워킹은 스포츠팬들을 위한 몰입형 경험부터 자동화된 제조 공정에 이르기까지 고객에게 안전하고 안정적인 고성능 연결성을 제공하며 다양한 비즈니스의 목표달성을 지원하기 위해 계속 노력하고 있다”며 “와이파이 7 AP는 단순히 성능과 효율성 향상을 넘어, 네트워크 보호부터, 워크로드 분산, 환경 특화, 비즈니스 및 운영 분석을 위한 기반을 제공하는 지능형 IoT 허브로 발전하고 있다”고 밝혔다.지디넷코리아(https://zdnet.co.kr/view/?no=20240425144630)케이티엔에프, '나라장터 엑스포'서 x86·GPU 서버 기술 과시2024.04.23KTNF는 'Korea Technology aNd Future'를 모토로 2001년에 창립하여 x86 서버, 보안 서버, AI/BigData 서버, 엣지 서버, ODM 서버를 직접 개발하여 공급하는 국내 유일한 ...…전자신문(https://www.etnews.com/20240423000219)지니언스, 이화여자대학교 의료원에 EDR 솔루션 공급2024.04.23사이버보안 전문 기업 지니언스(대표 이동범)는 이화여자대학교 의료원(이대목동병원, 이대서울병원)에 EDR(Endpoint Detection & Response) ...보안뉴스(https://www.boannews.com/media/view.asp?idx=129154&page=1&kind=3)티맥스소프트, 클라우드 네이티브 SaaS 'TSP'로 중소·중견 공략2024.04.22이형배 티맥스소프트 대표는 “다가올 AI 일상화 시대에 앱과 서비스를 신속하게 개발·배포할 수 있는 탄력성과 민첩성을 확보하기 위해서라도 SaaS는 장기적으로 ...…전자신문(https://www.etnews.com/20240422000217)Market Update오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"2024.04.21메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 , 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.지디넷코리아(https://zdnet.co.kr/view/?no=20240419162545)NIA "한국, AI활용 최강국 돼야"···올해 예산 1700억 투입2024.04.24"우리나라가 AI활용 최강국이 돼야합니다." 황종성 한국지능정보사회진흥원(NIA) 원장은 24일 서울 광화문에서 기자간담회를 열고 이 같이 밝혔다. 이날 NIA는 부서별 주요 사업과 함께 AI활용 강국을 위한 NIA 전략과 과제를 발표했다. 1987년 1월 한국전산원(NCA)으로 출발한 NIA는 2015년 7월 본원을 대구로 이전 했고 2020년 12월부터 현재의 한국지능정보사회진흥원이란 긴 이름을 쓰고 있다. 이에 정관을 개정, 25일부 기관명을 '한국지능정보원'으로 줄여 쓸 예정이다. 조직은 원장과 부원장 밑에 1실 8본부 4단 42팀으로 이뤄져 있다. 올해 총 예산은 6869억원(과기정통부 3450억원, 행안부 2415억원, 기재부 10억원, 국방부 33억원, 방통위 65억원, 용역사업 850억원, 자체 및 지방이전 26억원)이다. 이중 AI관련 예산은 1704억원으로 전체 예산의 25% 정도다. 1704억 중 국가 AI정책 지원에 53.7억, AI활용확산 촉진에 527억, 국가AI인프라 구축에 1124억원을 각각 사용한다. 황원장은 37년 역사 NIA를 ▲전산화 시대(1987~2000, NIA 1.0) ▲인터넷 시대(2001~2012, NIA 2.0) ▲데이터 시대(2013~2023, 데이터 시재) ▲인공지능 시대(NIA 4.0, 2024~227) 등 네 단계로 구분하며 "이제 NIA가 AI강국 구현을 위해 네번째 도전에 나선다"면서 "한국의 AI 기술을 세계 최고로 높이겠다는 말씀은 못 드리겠지만 우리가 AI 전문기관이 되면 한국이 AI 활용에 최강국이 되도록 하겠다"고 말했다. 실제 NIA는 황 원장 체제를 맞아 '세계최고 인공지능 활용 전문기관 도약'이라는 새 비전을 세웠다. 이를 구현하기 위한 조직 재편과 함께 3대 추진 전략으로 ▲AI 싱크탱크 기능 강화 ▲AI활용과 확산 공통기반 고도화 ▲AI 선도모델 조기 개발 및 확산을 설정, 추진한다. 황 원장은 미국 이 만든 '글로벌 AI도입 지수 보고서'를 인용하며 "AI기술개발보다 도입과 활용이 더 어렵다"면서 "AI 활용 역량이 높은 나라가 진정한 AI강국"이라고 짚었다. 또 AI혜택을 국민, 기업, 정부 모두가 누릴 수 있게 국가AI정책개발을 지원하고 이를 통해 AI산업 육성 및 신뢰성 확보에도 나서겠다고 밝혔다. 구체 방안도 제시했다. ▲AI서비스의 사회적 영향력을 평가할 방법론을 개발하고 ▲AI확산 저해 요인 발굴과 개선 ▲글로벌 AI 거버넌스 협력 ▲AI 확산을 위한 제도적 기반 마련에 나선다. 특히 AI전문기술과 서비스 개발, 사업관리 방법론을 개발해 AI신뢰성을 높일 계획이다. 이의 일환으로 AI 도입 영역별 기능과 성능에 대한 기준 수립과 가이드라인(지침)을 만들고, AI활용 공공서비스 개발 응용 표준도 마련해 제시한다. 사업계획 수립과 관리, 유지 운영 등 AI사업 전반에 대한 관리 방법도 제공한다. 이어 황 원장은" 공공서비스 AI 융합·혁신을 촉진하기 위해 도입-활용-확산의 전주기 지원체계를 마련하겠다"면서 "AI활용 테스트베드도 제공하겠다"고 했다. 국가 AI기술 경쟁력 강화를 위해 AI기술과 서비스에 대한 검증 및 실증 환경을 제공하겠다는 것이다. 검증 및 실증 대상은 엣지AI, AI플랫폼, 양자AI기술, 지능형네트워크 등이다. 공공 부문을 지렛대로 한 AI 초기수요 창출에도 나선다. 이를 구현하기 위해 공공부문 신규 서비스 모델 개발과 민간 AI서비스 수요-공급 매칭 지원, 상용 모델 개발 및 성과 공유 지원에 나선다. 누구나 쉽게 AI 혜택을 누리는 '포용 사업'도 시행한다. 포용 분야 올해 전체 예산은 300억원이다. 고령층과 장애인을 위한 대화형 AI키오스크 확산과 보육원 아동을 위한 AI 교육 솔루션 보급, 지역 주민 체감형 AI서비스 개발 및 확산에 나선다. AI근간을 이루는 데이터 분야 지원 방안도 밝혔다. AI스타트업, 중소벤처, 학계 등이 AI기술과 서비스를 개발하는데 필요한 신뢰할 수 있는 AI데이터 활용 기반을 구축하고 제공하겠다는 것이다. 구체적으로, 수요가 높은 분야별 특화 말뭉치 데이터와 멀티모달 데이터 등 생성AI 개발에 최적화한 데이터를 제공할 예정이다. 또 민간이 보유하고 있는 데이터의 자유로운 제공과 공유, 활용 체계도 구축한다. 가공하지 않은 원본데이터의 안전한 활용 기반도 마련한다. 이외에 데이터 기반 AI신뢰성 조성을 위해 분야별 벤치마크 데이터 구축을 확대(국내 및 글로벌 5종)하고 작년에 신뢰성 지표를 개발한데 이어 올해는 적용한다. 아세안 등 비영어권 국가와 협력해 AI신뢰성 분야 리딩에도 나선다. 글로벌 AI파트너십도 구축한다. 이와 관련, 황 원장은 "AI분야 국제협력 신사업 발굴로 국내 AI기업의 해외진출을 지원하고 개도국을 대상으로 AI개발센터(AIDC) 구축과 운영으로 파트너십을 강화하겠다"고 말했다. NIA는 앨런 튜링 연구소 등 글로벌 AI선도 연구소와 협업체계를 구축, 공동연구를 활성화할 방침이다. 발표를 마치고 기자들과 질의 응답 시간에 황 원장은 AI일상화와 관련해 "장기적으로 보면 정부가 재정 투입을 하는 것보다는, 모멘텀을 제공해 우리나라의 구조와 체질을 AI 시대에 맞게 바꾸는게 좋고 그게 목표"라며 "정보화 시대의 초고속 인터넷이 그런 예"라고 밝혔다. 이어 "우리 기업과 국민이 저렴한 비용으로 최고의 기술을 쓰게 하는, 이런 거대한 인프라를 설계하는 것에 관심이 있다"고 덧붙였다. 또 국회에 계류중인 AI법과 관련해서는 "AI시대이니 앞으로 수십, 수백개 AI법이 나올 거다. 그 첫 단추가 국회에 있는 AI법으로 일종의 기본법 같은 것"이라면서 "규제가 빠졌다, 뭐가 빠졌다 등 걱정하는 분들이 많이 있는데, 필요한 것을 작게 그리고 빨리 만드는 애자일 방법처럼, 필요한 제도를 남보다 빨리 만들어 놓고 개선해가는 전략이 필요하다"고 말했다.지디넷코리아(https://zdnet.co.kr/view/?no=20240424154023)AI 데이터 저장 수요 폭증... 기업용 HDD 가격 오른다2024.04.23기업용 고성능·고용량 HDD(하드디스크 드라이브) 가격이 이르면 이달 말부터 최대 10% 가량 오를 전망이다. 22일 시장조사업체 트렌드포스가 주요 HDD 제조사의 동향을 토대로 이같이 전망했다. 기업용 HDD 부문 시장 점유율 1위 업체인 씨게이트는 지난 18일, 2위 업체인 웨스턴디지털은 이달 초순 각각 주요 고객사 대상으로 가격 인상을 예고했다. 3위 업체인 도시바 역시 조만간 가격 인상을 선언할 것으로 보인다. ■ 웨스턴디지털 "수요 대비 생산량 부족... 공급가 수시로 조정" 웨스턴디지털은 시장조사업체 트렌드포커스 기준 전세계 점유율 37.5%에 달하는 HDD 제조사다(2023년 4분기 기준). 이 회사는 이달 초순 주요 고객사에 공문을 보내 "올 2분기부터 낸드 플래시메모리 기반 SSD와 HDD 가격을 올릴 것"이라고 예고했다. 웨스턴디지털은 스캇 데이비스(Scott Davis) 채널·지역 OEM 판매 부문 수석부사장 명의로 보낸 공문을 통해 "공급망 제약으로 SSD와 HDD 생산량의 수요가 공급 역량 대비 높게 유지되고 있다"고 설명했다. 이어 "올 2분기부터 전체 제품 공급가를 인상할 예정이며 일부 제품은 즉시 영향을 받을 것이다. 시장 상황을 감안해 공급 가격은 수시로 바뀔 것이며 사전 조율되지 않은 주문량 대응에도 한계가 있다"고 덧붙였다. ■ 업계 1위 씨게이트도 가격 인상 예고 트렌드포스에 따르면 전세계 시장에서 약 40% 점유율을 확보(트렌드포커스, 2023년 4분기 기준)한 씨게이트도 기업용 HDD 가격 인상에 나섰다. 씨게이트는 지난 18일 테 반셍(Teh BanSeng, 郑万成) 씨게이트 부사장 겸 CCO(최고 상업 전략 책임자) 명의로 발송한 공문을 통해 "수요 회복세가 이어지고 있지만 생산 역량이 모든 고객사의 요구를 충족할 수 없어 납기가 지연되고 있다"고 밝혔다. 이어 "세계적인 물가 상승으로 생산 원가가 오르고 있어 기존 주문 물량은 물론 신규 물량까지 공급가를 인상할 것이다. 자재 조달 제약에 따라 향후 수 분기 동안 가격 상승이 예상된다"고 밝혔다. ■ 암호화폐 채굴·자연 재해 등 HDD 가격 상승에 영향 최근 HDD 가격 상승에 영향을 준 사례로 2021년 암호화폐 '치아'(Chia)를 들 수 있다. 치아는 CPU나 GPU의 연산 능력 대신 저장장치 용량과 시간을 제공하면 보상(암호화폐)을 주는 구조를 채택했다. 2021년 5월부터 중국을 시작으로 한국과 홍콩, 일본 등 동북아시아 지역 시장에서 8TB 이상 고용량 HDD 가격이 오르기 시작했다. 하지만 치아 시세가 개당 270달러(약 33만원)까지 떨어지자 불과 몇 개월 만에 예년 수준을 되찾았다. HDD 생산 공장이 자연 재해로 피해를 입은 사례도 있다. 2011년 7월 말 태국 중·북부 지역에 발생한 홍수는 주요 HDD 제조사 현지 공장에 막대한 피해를 입혔다. 당시 전 세계 HDD 생산 시설의 25% 이상이 태국에 집중되어 있었고 전세계 PC 시장이 PC 출하 지연 등 피해를 겪었다. ■ 고성능·고용량 제품 위주 최대 10% 상승 전망 반면 이번 가격 상승은 AI가 주도하고 있다. AI 추론과 학습에 주로 쓰이는 대용량 데이터를 SSD 대비 상대적으로 저렴하게 저장할 수 있는 HDD로 수요가 몰리고 있다. 트렌드포스는 "AI로 고용량 HDD 수요가 늘고 있지만 주요 제조사의 생산 역량이 줄면서 수요를 충족할 수 없는 상황이다. 공급 가격 역시 올 2분기를 시작으로 최소 5%에서 최대 10%까지 오를 것"이라고 설명했다. 국내 HDD 유통사 관계자는 23일 "주요 제조사 공문 내용대로라면 5월부터는 국내 판매 가격도 영향을 받을 것"이라며 "NAS(네트워크 저장장치)나 구축에 쓰이는 14TB 이상 제품 가격 인상이 불가피하다"고 내다봤다.지디넷코리아(https://zdnet.co.kr/view/?no=20240423160036)델 "한국 생성형 AI 기회 커, 파트너 동기부여 강화”2024.04.22“델테크놀로지스에게 한국 시장은 채널 비즈니스 측면에서 아시아태평양지역 최대 국가다. 채널 비즈니스 비중이 90%를 넘을 정도로 중요하고 기대하는 시장이기에 한국에 투자를 지속할 것이다. 한국은 AI에서 가장 빠르게 성장하는 시장 중 하나다. 한국 내 독립소프트웨어개발사(ISV)와 클라우드서비스제공사(CSP)에도 많은 투자를 할 것이고, 부산 등 서울 외 지역의 성장잠재력도 크므로 다양한 지원과 투자를 추진중이다.” 티엔 벵 응 델테크놀로지스 APJ 채널비즈니스 총괄 수석부사장은 최근 한국 기자단과 인터뷰에서 이같이 밝혔다. 티엔 벵 응 수석부사장은 “시장이 변동성이 많이 일어나고 있고, AI가 아태지역과 글로벌하게 빠르게 성장하고 있으며, 멀티클라우드와 서비스화가 논란의 여지없이 일어나고 있다”며 “사이버보안도 전세계 모든 기업과 국가에서 중요하게 다뤄지고, 고객과 파트너 조직 모두 인력과 스킬 부족이 어려운 과제로 여겨지고 있다”고 설명했다. 응 수석부사장은 “델테크놀로지스는 이런 다섯 분야 모두에서 파트너와 적극 협력하며 효과적으로 대응하고 있다”며 “기본적으로 생성형 AI를 포함하는 시장의 다양한 변화에 신속 대응하고 있으며,. 멀티클라우드와 사이버보안 등에서 명실상부한 리더기업으로 인정받고 있다”고 말했다. 그는 “필요 스킬이나 인재부족에 대해서도 파트너와 적극 협력하며 그들의 인력을 강화하고 필요한 기술 교육을 제공하며 협력중”이라고 덧붙였다. 델테크놀로지스는 글로벌하게 핵심 비즈니스 성장, 신규 기회 포착, 파트너 은영체계 간소화 등 세 축에서 파트너 전략을 운영중이다. 파트너와 협력할 때 AI 같은 다양한 최신 기술을 활용해 업무를 자동화함으로써 파트너와 협력을 더 쉽게 만들고 있다 . 델테크놀로지스 사업 중 핵심에 속하는 분야의 경우 작년 8월 '스토리지에 대한 파트너 우선 정책'을 발표했다. 파트너가 델 스토리지를 공급할 때 더 많은 보상을 지급하는 것이다. 응 부사장은 “스토리지에 대한 파트너 우선 정책에 따라 델 소속 영업 인력이 직접 영업할 때 받는 보상을 줄이고, 파트너 협력을 통한 영업으로 받는 보상을 더 크게 했다”며 “현재 델 고객의 99%는 이 프로그램에 해당하고 있다”고 밝혔다. 델테크놀로지스는 이와 함께 '파트너오브레코드(PoR)'란 제도도 강화하고 있다. 델 PoR은 특정 기업에 일정 수준 이상으로 솔루션을 공급한 파트너에게 부여하는 지위다. 해당 기업에게 또 다른 델의 솔루션을 공급하려는 제3의 파트너사는 PoR 파트너를 통해 영업을 해야 한다. 응 부사장은 “PoR을 받은 파트너는 사업 투자를 보호함으로써 사업 예측성을 높이고 훨씬 더 많은 이익을 거둘 수 있게 된다”며 “스토리지 분야에서 PoR을 획득하게 된 경우도 '스토리지 파트너 우선 정책' 시행 이후 4배 증가하는 등 파트너사의 프로그램에 대한 반응이 좋고 델 영업팀과 참여도 급증하고 있다”고 말했다. 올해부터 델 에이펙스 인프라 제품군이 스토리지 및 서버 제품군을 위한 파트너 프로그램에 통합된다. 이에 따라 델 에이펙스 포트폴리오 관련 딜에도 기본 판매 보상과 특별 인센티브가 적용될 수 있으며, 델 에이펙스 인프라 역량을 보유한 파트너들은 '델 에이펙스 선지급 장려금'을 계속해서 활용할 수 있다. 메탈 등급 파트너가 델의 클라이언트 제품군 관련 역량을 보유하고 PC 주변기기 매출 목표를 달성할 경우, 델 클라이언트 주변기기 기본 판매보상의 5배, 프리시전 워크스테이션, 모니터, 도킹 스테이션, 래티튜드 러기드노트북 및 태블릿을 판매했을 때 기본 판매보상의 2배가 적용된다. 델은 지난해 5월 프로페셔널 서비스 중심의 제공 모델 '프로젝트 하모니'를 발표했다. 각 파트너사가 자사가 공급하는 전체 오퍼링에 델 서비스를 통합해 고객 지원을 강화할 수 있도록 돕는 모델이다. 델은 프로젝트 하모니를 '파트너 프로서비스'로 이름을 바꾸고, 관련 오퍼링을 확대하고 있다. 델의 대표적인 소프트웨어 정의 인프라 솔루션인 '델 파워플렉스'는 워크로드 현대화에 필요한 요건을 만족시키는 최적의 제품이다. '파워플렉스 디자인 2023 인증'에 투자하고 자격을 취득하는 파트너에게는 '신규 고객 판매장려금' 및 '타사 제품 교체 판매장려금'에 4%의 추가 보상이 적용된다. 2024 델 테크놀로지스 파트너 프로그램은 스토리지에 대한 파트너 우선 전략을 유지하는 동시에 서버 제품군에 대한 '파트너 오브 레코드(PoR)' 투자를 늘릴 예정이다. 올해부터 파트너가 특정 신규 고객사에 대해 1만5천달러 이상의 서버 매출을 기록할 경우, 신규 고객 판매장려금을 제공하게 된다. 이처럼 서버 PoR 자격을 확대함으로써 파트너들의 투자 및 고객 유치에 대한 보상을 공고히 하고자 하는 취지다. 응 부사장은 “델은 파트너와 협력할 때 멀티클라우드, 엣지, AI, 시큐리티, 워크포스익스피리언스, ESG 전략 등 6개 주요 기술 분야에 집중하고 있다”며 “특히 생성형 AI 트렌드에 대응하기 위해 파트너에게 필요한 것과 그들의 구체적 요구에 적극 지원하려 한다”고 밝혔다. 그는 “고객에게 생성형 AI를 제공하려 하는 파트너는 공급부터 구축까지 원스톱쇼핑을 필요로 하고 있고, 델은 엔드투엔드 포트폴리오로 지원하면서 고객사 구축 역량까지 지원할 수 있다”며 “생성형 AI는 빠르게 변화하는 분야이므로 파트너에게 최신 기술과 솔루션을 제공하며, 인텔, 엔비디아, AMD, 메타, 허깅페이스, ISV 등에 이르는 포괄적이고 탄탄한 생태계를 구축해 지원한다”고 강조했다. 그는 생성형 AI 관련 전문 ISV와 협업을 늘리고 있다고 언급했다. 그는 “파트너가 실제 생서형 AI 구축 프로젝트를 실행할 수 있는 역량을 빠르게 제공하려면 다양한 ISV 기술을 활용해야 한다”며 “델은 생성형 AI와 관련한 검증된 디자인을 제공해 파트너의 시간과 노력을 절약해주고 있다”고 말했다. 델은 작년 엔비디아 GPU와 AI 소프트웨어를 자사의 솔루션에서 사전 검증한 '생성형 AI를 위한 검증설계(Dell Validated Design for Generative AI)'를 선보였다. 이는 그전까지 '프로젝트 헬릭스'라 불렸던 레퍼런스 아키텍처다. 올해는 이를 한차원 더 높여 델테크놀로지스와 엔비디아가 직접 협업해 양사의 하드웨어와 소프트웨어를 사전에 통합하는 '델 AI 팩토리 위드 엔비디아'를 선보였다. 응 부사장은 “파트너가 생성형 AI를 구현하려면 다양한 솔루션 스택이 서로 잘 맞는지 검증해야 하는데, 델 검증설계 디자인은 파트너를 대신 설계를 검증해 제공하므로 프로젝트를 추진하는 시간을 훨씬 더 짧게 만들어준다”며 “파트너 입장에서 생성형 AI의 배포 유형과 규모가 사업마다 다르고, 항상 대규모인 것도 아니기 때문에 다양한 상황에 맞게 크든 작든 OPEX든 CAPEX든 다 지원할 수 있는 체계도 갖췄다”고 설명했다. 그는 “한국의 CSP에게도 GPU를 애즈어서비스로 활용할 수 있는 옵션을 제공하고 있다”며 “생성형 AI 관련 서비스를 다양하게 제공해 파트너에 필요한 다양한 기술 서비스를 이용하게 한다”고 덧붙였다. 델테크놀로지스는 작년 11월부터 지난 1월까지 AI 전용 서버 주문이 전분기 대비 40% 증가했다고 밝혔다 .4분기 AI 최적화 서버 매출은 8억달러에 달했으며, AI 최적화 서버 중 주문을 받아 아직 출하하지 않은 계약이 전분기보다 2배 늘어난 29억달러에 이른다고 했다. 응 부사장은 “최근 엔비디아의 젠슨 황 CEO가 GTC 2024 기조연설에서 델을 일컬어 '대기업을 위한 대규모 엔드투엔드 시스템 구축에서 최고의 기업'이라고 직접 말했다”며 “현재 파트너에게 받아들여지는 델테크놀로지스의 입지를 보여주는 발언”이라고 말했다.지디넷코리아(https://zdnet.co.kr/view/?no=20240422131036)데이터센터 에너지 절감을 위한 슈퍼마이크로의 제안2024.04.25전세계적으로 인공지능(AI) 수요가 폭발적으로 증가하면서 데이터센터의 에너지 소비 증가 문제가 대두되고 있다. 생성형 AI의 기반 인프라인 GPU 서버가 그 자체로 대량의 에너지를 소모하고, 서버 발열을 식히기 위한 냉각 시스템도 대량의 에너지를 필요로 하고 있다. 마이클 맥너니 슈퍼마이크로 마케팅 및 네트워크 시큐리티 부사장과 김성민 슈퍼마이크로 FAE & 비즈니스 개발 부문 이사는 최근 본지와 진행한 서면 인터뷰에서 데이터센터의 에너지 소비 문제를 진단하고 그에 대한 슈퍼마이크로의 솔루션을 설명했다. 마이클 맥너니 부사장은 “국제에너지기구(IEA)에 따르면 데이터센터, AI 및 암호화폐 부문의 전력 수요가 2026년까지 두 배 증가할 것으로 예측되며, 이중 데이터센터가 주요인으로 꼽혔다”며 “2022년 전세계 데이터센터는 연간 전력 소비 중 2%에 달하는 460테라와트시(TWh)의 전력을 소비했고, 2026년 1천TWh를 초과할 것으로 전망된다”고 설명했다. 그는 “데이터센터에서 냉각 시스템과 서버는 주요 전력 소비원으로, 일반적으로 각각 전체 소비량의 40%를 차지하며 나머지 20%는 전원 공급 시스템, , 통신 장비가 사용한다”며 “ 2023년 전 세계 전력 생산으로 인한 CO2 배출량은 1만3천575 톤에 달했으며, 한국과 일본의 경우 728 톤을 배출했는데, 이는 데이터센터의 전력 사용량을 감축했을 때 환경에 미치는 영향 또한 줄일 수 있음을 의미한다”고 밝혔다. 그는 “기후 변화가 점점 더 악화될 것으로 예상되는만큼 데이터센터의 환경 영향을 저감하기 위한 조치를 취해야 할 때”라며 “서버 기술의 발전 및 가용 범위의 증가에도 불구하고 대부분의 서버는 최대 성능에 훨씬 못 미치는 수준으로 실행되고, 가장 효율적인 서버도 약 50% 정도의 성능만만 발휘하며 에너지 낭비를 초래한다”고 덧붙였다. 환경단체뿐 아니라 정부, 기업 등도 데이터센터의 에너지 소비 증가 문제를 심각하게 여기고 있다. 하지만 투자평가사의 기업 ESG 평가 체제 중 IT 인프라에만 초점을 맞춘 구체적인 표준 등급이나 측정 항목은 없다. 다만 에너지 효율성, 재생 에너지 사용, 탄소 발자국, 전자 폐기물 관리, 공급망 영향, 데이터 보안 및 개인정보 보호 등 다양한 요소가 기업의 지속가능성 달성에 대한 평가 중 일부분으로 고려된다. 맥너니 부사장은 “슈퍼마이크로는 많은 제품의 제품 탄소발자국(PCF) 리포트를 최적화하기 위해 노력하고 있다”며 “다만 광범위한 포트폴리오로 인해 많은 시간이 필요해 요청에 따라 준비하고 있고, 여러가지 EPEAT 인증도 진행하고 있으며, 이는 슈퍼마이크로 및 EPEAT 웹사이트에 게시될 예정”이라고 밝혔다. 생성형 AI에서 고집적 GPU 클러스터의 급증에 따른 데이터센터 에너지 소비문제는 매우 심각하다. 마이클 맥너니 부사장에 의하면, 하이퍼스케일 데이터센터 하나에서 서버, 스토리지, 그리고 네트워킹 인프라를 원활히 작동하기 위해선 100메가와트(MW)의 전력을 필요로 한다. 이는 미국 8만 가구에 전력을 공급할 수 있는 양이다. 그는 “지정학적 여건에 따라 차이는 있지만 세계 각지에서 생산하는 전기 중 약 80%가 석탄, 가스, 석유 등 화석 연료를 연소하는 방식으로 만들어지고 있다”며 “일부 데이터센터와 이를 운영하는 기업이 재생 가능한 에너지로의 전환 또는 화석 연료 소비 감축을 위한 목표를 세우고 있으나, 데이터센터는 여전히 화석 연료를 태우는 전력망을 상당량 사용해 에너지 수요를 충족하고 있다”고 설명했다.. 그는 워크로드에서 에너지를 절감할 수 있는 방안으로 워크로드에 적합한 규모의 시스템 사용, 멀티 노드 및 블레이드 효율성 향상, 주요 서버 시스템의 구성 요소 선택 및 최적화, 서버 시스템 구성 요소의 교체 주기 늘리기 등을 제시했다. 맥너니 부사장은 “데이터센터 내 각 워크로드에 적합한 서버를 선택하면 전력 소비를 크게 줄일 수 있다”며 “최적화된 서버 시스템은 워크로드 요건에 맞춰 불필요한 처리를 최소화하며, 에너지 효율적인 설계와 부품 공유를 특징으로 하는 최신 서버는 와트당 처리량이 많아 전력 사용량을 줄인다”고 설명했다. 그는 “맞춤 설계는 불필요한 기능, 비용, 열 발생을 줄인다”며 “고속 CPU나 광범위한 I/O 기능을 요구하는 등 각 워크로드에 따라 맞춤화 된 서버가 과도한 용량 및 비용을 줄일 수 있다”고 덧붙였다. 다수의 노드에서 전원 공급 장치 및 팬과 같은 리소스를 공유해 부품 중복을 줄이고, 더 크고 효율적인 부품을 사용 가능하도록 함으로써 서버 시스템의 효율성을 높일 수 있다고 그는 강조했다. 그는 “이를 통해 모든 노드가 작동 중일 때 전력 소비를 줄일 수 있다”며 “또 다른 방법은 독립 서버가 네트워킹, 전원 공급 장치, 팬을 공용함으로써 랙 공간 및 케이블을 줄이는 것으로, 이는 공랭식 서버의 에너지 절약에는 케이블로 인한 공기 흐름 방해를 최소화하는 것이 중요하기 때문”이라고 설명했다. 이어 “특히 통합 스위칭 서버의 경우 일반적으로 연결 케이블 수가 적어 섀시 내외부에 전략적으로 케이블을 배치하면 에너지 효율 향상에 도움이 될 수 있다”며 “예를 들어, 1U 랙 마운트 서버 20대 대비 8U 섀시에 블레이드 20개가 탑재된 최신 블레이드 시스템은 케이블이 95% 감소하며, 공기 흐름 개선 및 팬 속도 감소로 인해 전기 사용량도 줄어든다”고 밝혔다.. 주요 서버 시스템의 구성 요소 선택 및 최적화 에 대해선 하드웨어와 워크로드 및 서비스수준협약(SLA) 준수율까지 고려해 새 서버 하드웨어를 구매해야 한다고 했다. 애플리케이션 실행에 소비되는 전력을 줄일 수 있다는 이유다. 그는 “CPU와 GPU 설계가 발전함에 따라 최신 서버의 와트당 성능은 최대 3배 높아지므로, 데이터센터의 서비스를 확장하면서도 필요한 전력량을 유지 또는 감축하려 할 때 도움이 된다”며 “CPU의 경우 코어 수, 클럭 속도, 전력 소모량, 캐시 크기 등의 옵션이 전기 사용량 및 열 출력에 직접적인 영향을 미친다”고 설명했다. 그는 “이메일 서버와 같이 처리 시간이 유연한 워크로드의 경우 저전력 CPU로도 충분할 수 있으며, 데이터베이스 작업과 같이 완료 속도가 중요한 작업에는 고성능 CPU가 적합하다”며 “GPU 같은 가속기는 특정 작업에서 성능을 향상시켜 작동 시간 및 전력 비용을 줄일 수 있는데, 하드 디스크 드라이브(HDD)에서 솔리드 스테이트 드라이브(SSD)로의 전환 시, 특히 I/O 집약적인 애플리케이션에서 데이터 검색 시간 및 전력 소비량이 줄어들며 이는 서버 운영의 전반적인 에너지 효율성에 기여한다”고 했다. 현재 아마존웹서비스(AWS), 마이크로소프트, 구글 등은 자사 데이터센터의 서버시스템 구성요소의 사용연한을 느려 시스템 교체주기를 늦추고 있다. 애플리케이션이 AI 학습이나 콘텐츠 전송 네트워크 등에 더 많은 데이터를 소요함에 따라 서버는 가격과 성능 측면에서 지속적으로 강화돼야 하지만, 서버 구성 요소는 각기 다른 속도로 발전하기 때문에 교체 주기가 서로 일치하지 않을 가능성이 있으며 전자 폐기물로 이어진다. 맥너니 부사장은 “이 때 분리형 방식을 사용한다면 최신 기술이 출시될 때마다 구성품 또는 하위 시스템을 개별적으로 교체할 수 있고, 그 결과로 서버를 통째로 폐기하는 일이 줄어든다”며 “잘 설계된 섀시는 전체가 아닌 각 구성 요소를 기술 주기에 따라 매끄럽게 교체할 수 있다”고 했다. 그는 “서버의 경우 다양한 CPU와 GPU를 수용하도록 설계된다면 전체 유닛을 폐기하지 않고 선택적으로 구성 요소를 업그레이드할 수 있다”며 “이러한 접근 방식은 환경에 미치는 영향을 최소화하는 동시에 서버가 발전하는 기술 요건에 맞춰 최신 상태를 유지하도록 보장한다”고 강조했다. 전세계적으로 데이터센터 에너지 소비 절약에 대한 관심과, 실천 정도는 어느정도일까. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 소비한 전력량은 460TWh에 달한다. 이는 전체 에너지 소비량 중 약 2%를 차지한다. 이로 인해 주요 국가들은 데이터센터에 대한 에너지 효율 규제를 도입하고 있다. EU는 2023년 10월 'EU 에너지 효율 지침(EED)'를 개정하며 이러한 변화를 선도하고 있다. EED는 2012년에 처음 채택되었으며, 에너지 효율 목표 달성을 위한 규칙 및 의무를 다루고 있다. 이번 개정은 EU가 2030년까지 2020년 기준치 대비 에너지 소비를 11.7% 추가 감축하기로 합의함에 따라 이루어졌다. 연간 에너지 절감 목표는 2023년 0.8%에서 2024년 이후 1.3%, 2030년 1.9%로 증가한다. 김성민 이사는 “세계적인 추세에 따라 우리나라도 구체적인 정책을 시행하기 시작했다”며 “정부가 건물 에너지 관리를 위해 도입한 제로에너지건축물(ZEB) 인증제도가 대표적인 예”라며 “ZEB는 건물의 에너지 부하를 최소화하고 신재생 에너지를 사용해 에너지 소비를 최소화하는 친환경 건축물로, 2017년부터 인증제도를 시행했다”고 설명했다. 그는 “2020년부터 연면적 1000m2 이상의 공공건축물에 의무화됐으며, 이는 민간 건축물까지 확장될 예정”이라며 “민간 데이터센터는 2025년부터 일정량의 재생에너지를 의무적으로 사용해야 한다는 의미로,. ZEB인증은 1) 에너지 효율 등급 1++ 이상, 2) 에너지 자립률 20% 이상, 3) 건물 에너지 관리 시스템(BEMS) 또는 원격 전자 계량기 설치 등을 기준으로 한다”고 했다. 그는 “이러한 정책의 확대는 기업들이 보다 적극적으로 데이터센터의 에너지 소비를 감축하는 데 동참할 수 있도록 장려할 것”이라며 “결과적으로, 전체 전력 소비의 40%를 차지하는 냉각 시스템에 대한 관심이 높아지고, 보다 효율적인 칠러 선택의 중요성도 강조될 것”이라고 덧붙였다. 슈퍼마이크로는 데이터센터 리소스 최적화를 위한 표준화와 비즈니스 경쟁력을 위한 유연성 간의 균형을 맞추기 위해 노력하고 있다. 슈퍼마이크로의 메가DC 및 클라우드DC 제품군은 차세대 하이퍼스케일 데이터센터를 위한 핵심 솔루션으로 제시된다. 버전 관리를 위한 OpenBMC, OCP3.0 SFF 표준을 지원하는 AIOM 모듈, 전력 최적화 설계를 비롯한 개방형 규격의 확장된 지원을 통해 데이터센터 운영자는 기존 인프라를 개조하지 않고도 개방형 컴퓨팅 개념의 이점을 누릴 수 있다고 회사측은 강조한다. 맥너니 부사장은 “슈퍼마이크로의 AIOM은 OCP3.0을 준수하고 향상된 기계 설계는 섀시를 열지 않고 서비스 및/또는 교체가 가능하도록 해 서비스 및 유지보수가 용이하다”며 “AIOM/OCP 3.0을 지원하는 플랫폼은 향상된 열 제어 기능으로 냉각 비용 절감이 가능하며, 소형 폼 팩터에 다양한 네트워킹 옵션이 제공되므로 간편한 구축이 가능하고, 열 효율이 높은 구성 요소를 갖춰 관리와 서비스가 간편하다”고 밝혔다. 그는 “슈퍼마이크로는 OCP 3.0 설계 개념을 활용해 아키텍처에 AIOM을 구현했을 때 아키텍처가 개선된 기성 표준 솔루션을 제공한다”고 덧붙였다. 슈퍼마이크로의 AIOM 카드는 마더보드 상단에 수직 또는 수평으로 설치되는 기존 PCI-E와 달리 마더보드와 동일한 레벨에 설치되도록 설계됐다. 이로 인해 시스템 전체의 공기 흐름을 크게 증가시켜 열 관리를 개선한다. 기존 PCI-E 카드는 상단에 설치되어 설치 및 교체 시 섀시 상단을 열어야 하는 반면, AIOM 카드는 섀시 후면에서 설치되기 때문에 번거로운 작업이 필요하지 않으며, 풀 탭과 나사 노브로 인해 별도의 도구 없이 서비스 가능하다. 맥너니 부사장은 “슈퍼마이크로는 소형 폼 팩터(SFF), 열 효율성, 손쉬운 서비스 가능성, 그리고 OpenBMC 구현을 통해 서비스 시간을 단축하고 시스템 다운타임을 최소화하는 솔루션을 제공한다”며 “서버부터 랙, 데이터센터 규모까지 AIOM 탑재 솔루션을 도입한다면 인프라가 확장되는 만큼 TCO도 개선된다”고 밝혔다. 2018년 슈퍼마이크로는 실리콘밸리에서 최초로 청정 연료전지 에너지를 사용한 첨단 시설 '빌딩 21'을 공개했다. 이 시설은 로봇을 이용해 60대의 랙을 자동으로 한 번에 번인할수 있는 시설을 갖췄으며, 대규모 데이터센터에 필요한 장비를 신속하게 조립, 공급, 설치할 수 있다. 그는 “약 1만9천 제곱미터 규모의 건물에 생산 라인, 테스트 시설, 번인 시설, 랙 조립 시설이 갖춰져 있고, 슈퍼마이크로는 이와 같은 최첨단 시설을 통해 서버 구축 및 테스트부터 공급 단계까지의 엔드 투 엔드 프로세스를 관리하는 것은 물론, 에너지를 대폭 절약하고 환경 오염을 효과적으로 줄이는 데 앞장서고 있다”며 “빌딩 21을 통해 슈퍼마이크로는 향후 10년간 약 800만 달러의 에너지 비용을 절감할 수 있을 것으로 예상한다”고 강조했다. 슈퍼마이크로는 전세계적인 데이터센터 현대화 추세 속에서 강세를 보이며 급성장하고 있다. 맥너니 부사장은 '그린 컴퓨팅'에 초점을 맞춘 투자와 역량 강화에 있다고 했다. 그는 “전 세계 전력 수요의 1%에서 1.5%까지 소비하는 오늘날의 데이터센터에 그린 컴퓨팅은 매우 중요하다”며 “슈퍼마이크로의 완벽한 랙 스케일 수냉식 솔루션은 기존 냉각 방식의 필요성을 크게 낮추며, 공급 장치와 펌프는 핫스왑 및 이중 전원이 가능해 장애 발생 시 고성능 AI 및 HPC에 최적화된 서버의 랙 전체를 효율적으로 냉각할 수 있다”고 밝혔다. 그는 “이러한 솔루션은 CPU와 GPU 모두에 맞춤 설계된 콜드 플레이트를 사용해 기존 설계보다 효율적으로 열을 제거한다”며 “슈퍼마이크로 기술로 데이터센터 PUE를 1.0에 가깝게 낮출 시 30개의 화석 연료 발전소 건설을 하지 않아도 되며, 그로 인해 최대 100억 달러의 에너지 비용을 절감할 수 있다”고 설명했다. 슈퍼마이크로의 서버는 성능 대비 적은 전력을 사용하도록 설계됐다. 이는 가능한 경우 부품을 공유하는 설계를 통해 이뤄진다. 또한 슈퍼마이크로 서버는 전체 섀시 전체를 교체하지 않고 CPU, 메모리, 스토리지 등 개별 하위 시스템을 업그레이드할 수 있도록 설계됐다. 이러한 분리형 설계를 사용하면 전자 폐기물을 크게 줄이고 새로운 기술을 도입할 때 비용을 절감할 수 있다. 그는 “슈퍼마이크로 그린 컴퓨팅의 핵심은 슈퍼마이크로가 전력 소비를 줄이는 엔비디아, 인텔, AMD 등의 최신 CPU 및 GPU 기술을 통해 최첨단 서버와 스토리지 시스템을 설계, 제조 가능하게 한다는 것”이라며 “슈퍼마이크로의 혁신적인 랙 스케일 수냉식 냉각 옵션을 통해 데이터센터 전력 사용 비용을 최대 40%까지 줄일 수 있다”고 밝혔다. 그는 “엔비디아 HGX H100 8-GPU 서버를 탑재한 슈퍼마이크로의 대표 GPU 서버는 AI 워크로드로 인해 수요가 지속 증가하고 있다”며 “슈퍼마이크로는 전 세계 통틀어 매월 5천 개의 랙을 출하할 수 있으며, 그 결과 매출 200억 달러 달성을 향해 성장할 것으로 기대된다”고 강조했다.지디넷코리아(https://zdnet.co.kr/view/?no=20240425131715)퀄컴, 보급형 PC용 프로세서 '스냅드래곤 X 플러스' 공개2024.04.25퀄컴이 24일(미국 현지시간) PC용 SoC(시스템반도체)인 스냅드래곤 X 플러스를 추가 공개했다. 스냅드래곤 X 플러스는 지난 해 10월 퀄컴이 공개한 스냅드래곤 X 엘리트 하위 제품으로 CPU 코어 수와 GPU 성능, 작동 클록 등에 일부 제한을 뒀다. 그러나 NPU(신경망처리장치) 성능은 45 TOPS(초당 조 횟수의 연산 처리) 급으로 동일하게 유지했다. 스냅드래곤 X 플러스는 저전력/보급형 노트북에 주로 탑재될 것으로 보인다. 인텔 코어 울트라 U시리즈, AMD 라이젠 U시리즈 등 기존 x86 프로세서와 치열한 경쟁이 예상된다. 삼성전자, 델테크놀로지스, 등 주요 제조사도 올 하반기부터 제품을 출시 예정이다. ■ 스냅드래곤 X 시리즈, CPU 코어로 고성능 오라이온만 탑재 스마트폰용 SoC인 스냅드래곤 8 시리즈는 고성능(코어텍스 X3), 일반(코어텍스 A720), 저전력·고효율(코어텍스 A520) 등 Arm IP 기반 세 종류 CPU 코어를 탑재하고 전력 소모나 부하 등 상황에 맞게 골라 쓰는 방식이다. 반면 퀄컴이 지난 해 10월 '스냅드래곤 서밋' 행사에서 정식 공개한 스냅드래곤 X 엘리트는 독자 개발한 '오라이온'(Oryon) 코어 한 종류만 쓴다. 전력 소모와 성능에 차이를 두려면 최고 작동 클록이나 GPU 성능에 차등을 둬야 한다. 최하위 모델인 'XIE-78-100'은 12코어를 기반으로 최대 작동 속도는 3.4GHz이며 필요시 작동 클록을 올리는 '듀얼 코어 부스트' 기능을 뺐다. 아드레노 GPU의 성능도 3.8 TFLOPS(테라플롭스, 초당 1조번 부동소수점 연산)로 제한했다. ■ CPU 코어 줄이고 GPU 성능 제한해 전력 소모 낮춰 이번에 공개된 스냅드래곤 X 플러스는 오라이온 CPU 코어 수를 10개로 줄이고 최대 작동 속도도 3.4GHz로 제한했다. 아드레노 GPU 성능 역시 3.8 TFLOPS로 낮췄다. 최대 소모 전력은 공개되지 않았지만 스냅드래곤 X 엘리트 대비 낮을 것으로 보인다. 퀄컴은 프로세서 벤치마크 프로그램인 '시네벤치 2024'를 이용한 결과를 토대로 "스냅드래곤 X 플러스는 인텔 코어 울트라7 155H나 AMD 라이젠 9 7940HS 등 경쟁사 x86 프로세서 대비 전력은 최대 39% 덜 쓰며 같은 성능을 낸다"고 설명했다. 또 GPU 벤치마크 프로그램인 UL 3D마크 와일드라이프 익스트림 실행 결과를 토대로 "인텔 코어 울트라7 155H 내장 아크 GPU 대비 최대 성능 구동시 소비 전력은 약 50% 더 낮고 20W 수준에서는 36% 더 높은 성능을 낸다"고 밝혔다. ■ NPU는 상위 제품과 같은 수준으로 유지 CPU나 GPU와 달리 NPU 성능은 스냅드래곤 X 엘리트와 같은 45 TOPS 급이다. 이미 인텔 코어 울트라(메테오레이크, 11 TOPS)나 AMD 라이젠 8000 시리즈(16 TOPS) 대비 최대 4배 이상 차이가 나는 만큼 이를 강점으로 내세운 것이다. 특히 현재까지 출시된 AMD 라이젠/라이젠 프로 8000 프로세서는 상위 일부 제품에만 NPU를 탑재한다. 반면 퀄컴은 모든 라인업에 동일한 성능의 NPU를 탑재했다. 5G 모뎀은 2021년 출시한 최대 다운로드 속도 10Gbps, 업로드 속도 3.5Gbps급 스냅드래곤 X65, 와이파이·블루투스는 2022년 출시한 와이파이7(802.11be) 지원 패스트커넥트 7800으로 스냅드래곤 X 엘리트와 같다. ■ TSMC 4나노급 공정서 생산... 올 하반기 실 제품 출시 전망 스냅드래곤 X 플러스는 TSMC 4나노급 공정에서 생산된다. 캐시 메모리 용량 역시 42MB로 같다. 생산 원가를 낮추고 복잡성을 줄이기 위해 4가지 SoC를 한 공정에서 생산한 다음 작동 특성에 따라 다른 제품으로 출하할 가능성이 크다. 퀄컴은 오는 6월 초 대만에서 진행되는 '컴퓨텍스 2024' 기간 중 크리스티아노 아몬 CEO가 직접 진행하는 기조연설을 통해 스냅드래곤 X SoC 관련 상세 정보를 공개할 전망이다. 삼성전자, 델테크놀로지스, 레노버 등 국내외 PC 제조사는 올 하반기부터 스냅드래곤 X 플러스 탑재 노트북을 출시 예정이다.지디넷코리아(https://zdnet.co.kr/view/?no=20240425023712)인텔, 한스 촹 아시아태평양 지역 SMG 총괄 선임2024.04.19인텔은 19일 한국과 일본, 대만 등 아시아태평양 지역 총괄 신임 세일즈·마케팅 및 커뮤니케이션 그룹 임원 인사를 발표했다. 스티브 롱 전임 아시아태평양 총괄은 2021년 말부터 지난 해 말까지 인텔 재직 후 올 초 레노버 인텔리전트 디바이스 그룹 수석부사장으로 이직했다. 후임에는 한스 촹(Hans Chuang, 莊秉翰) 세일즈마케팅 그룹 부사장이 선임됐다. 한스 촹 신임 총괄은 홍콩 출신이며 캐나다 브리티시 컬럼비아 대학교에서 주전공으로 전기공학 학사 학위를, 부전공으로 컴퓨터공학 학사 학위를 취득했다. 이후 맥길 대학교에서 MBA를 취득했다. 2005년 7월 알테라 일본지사 입사 후 중국 지역 세일즈 디렉터, 아태지역 부사장 등을 역임했다. 2016년 인텔 알테라 인수 이후 프로그래머블솔루션그룹(PSG) 아태지역 부사장, 화웨이 담당, 아시아태평양 지역 부사장을 거쳤다. 한스 촹 총괄은 앞으로 대만 지역에서 근무하며 매출 성장 촉진, 신규 사업기회 창출을 위한 현지 생태계 협력, 기존 고객 및 파트너 관계 강화 등 지역 내 인텔 전반적인 사업을 관장한다. 한스 촹 총괄은 "가장 다양하고 빠르게 성장하는 지역 중 하나인 아시아태평양에서 인텔의 성장과 혁신을 이끌게 돼 기쁘다"고 밝혔다. 이어 "지역내 파트너의 강점을 활용하고 투명하고 안전한 방식으로 고객을 지원하는 개방형 에코시스템을 구축하기 위한 노력을 지속하는 것이 아시아태평양 지역에서 장기적인 성공을 거두는 데 핵심이 될 것"이라고 덧붙였다. 인텔은 지난 3월 인도의 빠른 성장과 사업 기회를 활용하기 위해 해당 지역을 세일즈·마케팅 및 커뮤니케이션 그룹 내 별도 지역으로 분리한다고 밝혔다. 해당 지역 신임 총괄에는 산토쉬 비스와나탄(Santhosh Viswanathan)이 선임됐다. 산토쉬 비스와나탄 총괄은 "인텔은 그룹 내 인도 지역 신설로 인도의 강력한 엔지니어링 기반을 바탕으로 고객과 긴밀히 협력할 수 있게 됐다. 매우 중요한 시기에 인도에서 인텔의 비즈니스를 이끌게 되어 기쁘게 생각한다"고 밝혔다.지디넷코리아(https://zdnet.co.kr/view/?no=20240419180615)AWS, 아마존 베드록 신기능 발표2024.04.24아마존웹서비스(AWS)는 생성형 인공지능(AI) 애플리케이션과 경험을 쉽게 개발할 수 있게 지원하는 아마존 베드록의 신규 혁신 기능을 23일 발표했다. 아마존 베드록 신규 기능을 통해 고객은 아마존 베드록에서 자체 완전 관리형 모델을 실행하고, 사용 사례에 가장 적합한 모델을 쉽게 찾고, 생성형 AI 애플리케이션에 더 쉽게 보호 기능을 적용하고, 더 많은 모델 선택권을 제공받을 수 있게 됐다. 새로운 아마존 베드록 커스텀 모델 가져오기 기능은 조직이 아마존 베드록에서 완전히 관리되는 애플리케이션 프로그래밍 인터페이스(API)로 자체 커스텀 모델을 가져와 액세스할 수 있게 함으로써 생성형 AI 애플리케이션 구축 시 전례 없는 선택의 폭을 제공한다. 고객은 클릭 몇 번으로 아마존 세이지메이커나 다른 도구에서 커스터마이징한 모델을 손쉽게 아마존 베드록에 추가할 수 있다. 이 새로운 기능은 조직이 동일한 API를 통해 아마존 베드록 모델과 자체 커스텀 모델의 조합을 쉽게 선택할 수 있도록 지원한다. 현재 프리뷰 버전으로 제공되는 아마존 베드록의 커스텀 모델 가져오기 기능은 가장 인기 있는 오픈 모델 아키텍처인 플란-T5, 라마, 미스트랄 세 가지를 지원하며 향후 더 많은 아키텍처를 지원할 계획이다. 모델 평가 기능은 조직이 아마존 베드록에서 모델을 분석하고 비교할 수 있는 가장 빠른 방법으로, 모델 평가에 소요되는 시간을 몇 주에서 몇 시간으로 단축하여 새로운 애플리케이션과 경험을 더 빠르게 시장에 출시할 수 있게 지원한다. 고객은 정확성이나 견고성 등 사전 정의된 평가 기준을 선택하고 자체 데이터 세트 또는 프롬프트 라이브러리를 업로드하거나 기본 제공되는 공개 리소스에서 선택하여 빠르게 시작할 수 있다. 주관적인 기준이나 세심한 판단이 필요한 콘텐츠의 경우, 고객은 간편하게 워크플로우에 평가자를 추가해 관련성, 스타일, 브랜드 보이스 등 사용 사례별 메트릭에 따라 모델 응답을 평가할 수 있도록 지원한다. 설정 프로세스가 완료되면 아마존 베드록이 평가를 실행하고 보고서를 생성하며, 고객은 주요 기준에 따라 모델이 어떻게 수행되었는지 쉽게 이해하고 사용 사례에 가장 적합한 모델을 신속하게 선택할 수 있다. 정식 출시된 가드레일 포 아마존 베드록은 FM의 기본 기능에 안전 보호 기능을 추가해 고객이 유해 콘텐츠를 최대 85%까지 차단할 수 있도록 지원한다. 현재 사용 가능한 다른 모델보다 뛰어난 성능을 제공한다. 가드레일은 아마존 베드록의 모든 대규모 언어 모델(LLM)과 미세 조정된 모델에서도 작동한다. 가드레일을 생성하려면 고객은 애플리케이션의 컨텍스트 내에서 거부된 주제에 대한 자연어 설명을 제공하기만 하면 된다. 혐오 발언, 모욕, 성적인 언어, 자극적인 표현, 폭력 등의 영역을 필터링하는 임계값과 개인 및 민감한 정보, 욕설 또는 특정 차단 단어를 제거하는 필터를 구성할 수 있다. 가드레일 포 아마존 베드록은 일관된 사용자 경험을 제공하고 생성형 AI 애플리케이션 전반에 걸쳐 안전 및 개인정보 보호 제어를 표준화함으로써, 고객이 빠르고 안전하게 혁신할 수 있도록 지원한다. 현재 아마존 베드록은 아마존 타이탄 제품군을 지속적으로 확장해 고객에게 더 많은 선택권과 유연성을 제공하고 있다. RAG 사용 사례 작업에 최적화된 아마존 타이탄 텍스트 임베딩 V2는 정보 검색, 질의응답 챗봇, 개인화된 추천과 같은 다양한 작업에 적합하다. 아마존 타이탄 텍스트 임베딩 V2 모델은 및 컴퓨팅 비용을 절감하는 동시에 정확도를 높여준다. 이 모델은 고객에게 유연한 임베딩을 제공해 전체 스토리지를 최대 4배까지 줄여 운영 비용을 크게 절감하는 동시에, RAG 사용 사례의 정확도를 97%로 유지해 다른 주요 모델보다 뛰어난 성능을 발휘한다. 정식 버전으로 사용 가능한 아마존 타이탄 이미지 제너레이터는 광고, 전자상거래, 미디어 및 엔터테인먼트와 같은 업계의 고객이 자연어 프롬프트를 사용해 저렴한 비용으로 스튜디오 품질의 이미지를 제작하거나 기존 이미지를 개선 및 편집할 수 있도록 지원한다. 아마존 타이탄은 생성하는 모든 이미지에 보이지 않는 워터마크를 적용하여 AI가 생성한 이미지를 식별할 수 있도록 지원함으로써, 안전하고 투명하며 보안이 유지된 AI 기술 개발을 촉진하고 허위 정보의 확산을 줄이는 데 도움을 준다. 현재 아마존 베드록에서 메타 라마 3 FM을 사용할 수 있으며, 곧 코히어의 커맨드 R 및 커맨드 R+ 모델도 출시될 예정이다. 라마 3는 개발자, 연구자, 기업이 생성형 AI 아이디어를 구축 및 실험하고 책임감 있게 확장할 수 있도록 설계됐다. 라마 3 모델은 광범위한 사용 사례를 지원하는 사전 학습 및 지침 파인튜닝된 LLM 컬렉션이다. 텍스트 요약 및 분류, 감정 분석, 언어 번역, 코드 생성에 적합하다. 코히어의 커맨드 R 및 커맨드 R+ 모델은 고객이 글로벌 비즈니스 운영 지원을 위해 10개 언어의 고급 RAG 기능을 갖춘 엔터프라이즈급 생성형 AI 애플리케이션을 구축하는 데 사용할 수 있는 최첨단 FM이다. 스와미 시바수브라마니안AWS AI 및 데이터 부문 부사장은 "아마존 베드록은 그 어느 곳보다 빠르고 쉽게 실험에서 운영환경으로 전환할 수 있도록 지원하기 때문에 모든 규모와 산업군에 걸친 수만 개의 조직이 생성형 AI 전략의 기반으로 선택하면서 폭발적인 성장을 경험하고 있다"며 "고객은 엔터프라이즈급 보안과 개인정보 보호, 폭넓은 FM 선택권, 그리고 생성형 AI 애플리케이션 구축을 위한 가장 쉬운 방법을 제공하는 아마존 베드록에 많은 관심을 보이고 있다”고 밝혔다. 그는 “이번 발표는 고객에게 가장 포괄적인 기능들과 업계 선도적인 모델 선택권을 제공하고자 하는 노력의 일환이며, 이를 통해 고객을 위한 빠른 혁신을 지속하고 대규모 생성형 AI 혁신을 더욱 대중화할 것"이라고 강조했다.지디넷코리아(https://zdnet.co.kr/view/?no=20240424135127)정보보호·SW 인증 소요기간·수수료 대폭 개선…업계 "고무적" (종합)2024.04.25정부가 정보보호·소프트웨어(SW) 인증제도를 대폭 개선한다. 평균 5개월가량 걸리던 인증 기간을 2개월로 단축하고 수수료도 낮춘다. 정부는 이같은 조치로 인증을 받는 기업이 늘어나 신뢰성이 높아지는 것은 물론 관련 기업들의 경쟁력을 강화하는 계기가 될 것으로 봤다. 이번 제도 개선에 대해 업계에선 ‘고무적’이라는 반응이 나왔다. 수년동안 운영뉴시스(https://www.newsis.com/view/?id=NISX20240425_0002713797)과기정통부, 올해 유망 SW 기업 95개에 180억원 지원2024.04.23정부가 소프트웨어(SW) 기업 성장 지원을 위해 올해 95개 기업에 180억원을 지원한다. 과학기술정보통신부는 'SW 고성장클럽' 사업에 신규로 참여할 SW기업 38개사를 신규 선정했다고 23일 밝혔다. SW 고성장클럽은 3년간 연평균 고용 또는 매출증가율이 20% 이상인 기업(경제협력개발기구 기준)과 창업 3~7년차 이내의 예비고성장 기뉴시스(https://www.newsis.com/view/?id=NISX20240423_0002709532)삼성SDS, 1분기 영업이익 16.2% 증가 “클라우드 사업 호조”2024.04.25삼성SDS 타워삼성SDS가 1분기 매출액 3조 2473억 원, 영업이익 2259억원으로 잠정실적을 발표했다. 매출액은 전년 동기에 비해 4.5% 감소했으나 영업이익은 16.2% 증가했다. 정보기술(IT)서비스 부문 매출액은 지난해 같은 기간에 ... …전자신문(https://www.etnews.com/20240425000304)조달청, 나라장터 엑스포서 3062만 달러 수출계약 성과2024.04.19조달청은 17일부터 19일까지 사흘간 일산 킨텍스에서 열린 '나라장터 엑스포(KOPPEX 2024)' 수출상담회를 통해 3062만 달러 상당의 수출 계약을 체결했다고 밝혔다. 이번 수출상담회에는 역대 최대 규모인 해외바이어 87개사가 참석해 국내기업 300여개 사와 750여건의 수출 상담을 실시했으며 이를 통해 미국, 태국, 브라질 등 8개국의 16개뉴시스(https://www.newsis.com/view/?id=NISX20240419_0002706479)홈페이지 가기씨플랫폼 블로그카카오채널 구독