|
| 국가AI전략' 내년 1분기 만든다…AI위원회 분과 구성 마쳐 | 2024.12.02 |
국가 인공지능(AI) 정책을 이끄는 국가AI위원회가 내년 1분기 중 '국가AI전략' 수립에 나선다. AI 기술·제도·안전 등을 담당할 5개 분과위원회가 구성됐으며, 이달 중 정책과제 발굴 등 운영을 도울 위원회 지원단도 출범할 예정이다. 대통령 직속 국가AI위원회는 산업계, 학계 등 각계의 전문가들로 분과위원회 구성을 마무리하고 국가AI전략 수 |
뉴시스(https://www.newsis.com/view/NISX20241202_0002980365) |
| AI·데이터 기반 재난대응 역량 강화한다 | 2024.11.29 |
행정안전부는 재난안전정보의 공동 이용 확대를 위해 지난 28일 이한경 재난안전관리본부장 주재로 ‘2024년 하반기 재난안전정보 공동이용 협의회’를 개최했다. |
보안뉴스(https://www.boannews.com/media/view.asp?idx=134748&page=3&kind=2) |
| 가트너 "2028년까지 창고·물류 센터 80% 자동화 도입 전망" | 2024.12.04 |
노르웨이 창고 자동화 기업 오토스토어는 시장조사기관 가트너가 발표한 '가트너 창고 운영 혁신 기술 트렌드, 제 3부 노동력 문제' 보고서에서 자동 보관 및 출고 시스템(AS/RS) 부문 '샘플 벤더'로 선정됐다고 4일 밝혔다. 가트너는 보고서에서 "물류 기업은 노동력과 운영 공간 및 자본 부족으로 인해 사람 중심의 환경과 전통적인 자재취급장비(MHE) 자동화를 대체하거나 보완하는 방법을 찾을 수 밖에 없다"며 "2028년까지 창고 및 물류 센터의 80%가 어떤 형태로든 창고 자동화를 도입할 것"이라고 분석했다. 이번 보고서는 설계형·로봇 큐브형 보관 시스템 계열의 내부물류(인트라로지스틱스) 스마트 로봇 시스템과 같은 기술이 창고 및 풀필먼트 산업에서 노동력 문제를 해결하는 데 중추적인 역할을 할 수 있다는 점을 시사하고 있다. 특히 가트너는 보고서에서 인건비 부담을 완화하고, 인력 가용성 문제를 해결하기 위해 창고 운영에서 자동화 및 소프트웨어에 대한 지속적인 투자의 필요성을 강조했다. 오토스토어의 AS/RS 솔루션은 큐브 기반 보관 시스템과 첨단 로봇을 이용해 확장성, 공간 이용 최적화 및 효율성 향상을 제공하면서 동시에 노동 집약적인 프로세스에 대한 의존도를 낮춘다. 고밀도 보관을 위한 수직 및 수평 공간을 극대화함으로써 보관 용량을 평균 4배 늘리고 평방피트 당 가장 빠른 자동화된 풀필먼트를 제공한다. 오토스토어는 R5 프로 로봇, 라우터 소프트웨어, 유니파이 애널리틱스 플랫폼 등 고급 기술을 제공해 대규모 전자상거래 운영의 효율성을 크게 높여준다. 특히, R5 프로 로봇은 공간 이용과 성능을 최적화하면서 다중 교대 근무 작업 환경에서 소유 비용을 낮추도록 설계됐다. 라우터 소프트웨어는 최적의 이동 경로를 보장하는 독자적인 알고리즘으로 로봇이 보관 그리드를 지나가는 경로를 정확히 안내함으로써 하드웨어 성능을 향상시킨다. 기반 플랫폼인 유니파이 애널리틱스는 실시간 데이터 수집과 분석을 자동화해 고객이 데이터 기반의 효과적인 의사 결정을 내릴 수 있도록 빠른 인사이트를 제공한다. 파스 조시 오토스토어 최고제품책임자(CPO)는 "오토스토어의 첨단 솔루션은 고공 작업의 위험을 최소화해 안전성을 높인다"며 "오토스토어는 고객이 언제나 한 발 더 앞서고, 탁월한 효율성으로 소비자의 요구 변화에 효과적으로 대응할 수 있도록 기술 발전에 전념하고 있다"고 말했다. 김경수 오토스토어코리아 대표는 "오토스토어코리아는 앞으로도 국내 기업들이 첨단 물류 기술을 활용해 대규모 전자상거래 운영과 인력 문제에 유연하게 대응할 수 있도록 최선을 다할 것"이라고 말했다. 한편 오토스토어는 고객 요구를 충족하고 경쟁력을 강화하기 위해 지속적으로 솔루션을 개선하고 있다. 올해 ▲다중 온도 솔루션 ▲확장된 18단 그리드 ▲전동 서비스 차량 등 새로운 그리드 기능을 발표했다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241204144739) |
| "엔비디아 칩 못 구해요" 빌려쓰는 클라우드 GPU '뜬다' | 2024.11.30 |
그래픽처리장치(GPU) 수급난과 높은 운영 비용 문제 해결책으로 서비스형 GPU(GPU-as-a-Service, GPUaaS)가 주목받고 있다. 클라우드를 통해 인공지능(AI) 서비스 개발에 필요한 만큼 GPU를 빌려 쓰는 구독형 모델인 GPUaaS는 유연성과 비용 효율성을 앞세워 빠르게 확산 중이다. 구글, 마이크로소프트(MS), 아마존웹서비스 |
뉴시스(https://www.newsis.com/view/NISX20241129_0002977795) |
| 이통 3사 AI 사업 전진배치…탈(脫)통신 격랑 | 2024.11.30 |
이동통신사들이 내년도 경영을 위한 밑그림을 속속 내놓고 있다. 올해 인공지능(AI) 중심 기업으로의 전환을 위한 바닥을 다지는 데 주력한 만큼 조직 체계 또한 이에 맞춰 새롭게 재편했다. KT는 IT 분야 역량 강화를 앞세워 기업간거래(B2B) 관련 조직을 통합하고 클라우드·AI·IT 분야 컨설팅 조직은 확대 재편했다. LG유플러스는 신사업을 위 |
뉴시스(https://www.newsis.com/view/NISX20241129_0002978437) |
| MS, 공공클라우드 시장 진출 길 텄다…CSAP 인증 획득 | 2024.12.02 |
마이크로소프트(MS)가 한국인터넷진흥원(KISA)으로부터 클라우드 서비스 보안인증제(CSAP) '하' 등급(다 그룹용) 인증을 받았다고 2일 밝혔다. CSAP 등급제 시행 이후 외산기업이 관련인증을 따낸 최초 사례다. 이번 인증은 KISA가 MS 클라우드 서비스 '애저(Azure)' 한국 리전 운영 환경을 심사한 결과다. 심사 과정에는 인공지능(A |
뉴시스(https://www.newsis.com/view/NISX20241202_0002979651) |
| AWS, 데이터센터 설계 방식 진화…에너지 효율·AI 지원 강화 | 2024.12.03 |
아마존웹서비스(AWS)가 차세대 데이터센터 설계 방식을 통해 에너지 효율성과 인공지능(AI) 워크로드 기능 강화에 나섰다. AWS는 오는 6일까지 미국 라스베이거스에서 열리는 'AWS 리인벤트'에서 새로운 데이터센터 구성요소를 2일(현지시간) 발표했다. 해당 기능은 AWS의 새로운 데이터센터에 전 세계적으로 구현될 예정이다. 일부 구성요소는 이미 기존 데이터센터에 배포됐다. 해당 방식은 고가용성을 위한 간소화된 전기·기계 설계로 이뤄졌다. 고객에게 가장 신뢰할 수 있는 인프라를 제공하는 데 지속적으로 초점을 맞추기 위해서다. 간소화된 전기·기계 설계는 더욱 신뢰할 수 있고 유지 관리가 용이하다. 이를 통해 고객이 AWS가 처음부터 제공해온 높은 신뢰성의 이점을 누릴 수 있도록 한다. AWS의 최신 데이터센터 설계 개선 사항에는 간소화된 전기 배전·기계 시스템이 포함돼 99.9999%의 인프라 가용성을 실현한다. 간소화된 시스템은 전기 관련 문제로 영향 받을 수 있는 잠재적 랙의 수를 89% 줄일 수 있다. 데이터센터에서 전기는 IT 장비에 도달하기 전에 여러 변환 및 배전 시스템을 거친다. 각 단계마다 비효율성과 에너지 손실, 잠재적 장애 지점이 자연스럽게 발생한다. 이에 AWS는 배전을 간소화해 잠재적 장애 지점의 수를 20% 줄였다. 다른 단순화 사례로는 백업 전원을 랙에 더 가깝게 배치하고 뜨거운 공기를 배출하는 데 사용되는 팬의 수를 줄인 것이다. AWS는 자연적인 압력차를 활용하해 뜨거운 공기를 배출할 수 있다. 이는 서버에서 사용할 수 있는 전기량을 개선한다. 이런 모든 변화는 장애 위험을 최소화하면서 전체적인 에너지 소비를 줄인다. AWS는 고객에게 가능한 한 가장 성능이 뛰어나고, 가용성이 높으며, 에너지 효율적인 인프라를 제공하기 위해 다수의 새롭고 향상된 기능을 구축했다는 점도 강조했다. 우선 새 데이터센터에 도입된 주요 특징은 액체 냉각이다. 최신 AI 서버는 고밀도 컴퓨팅 칩을 더욱 효율적으로 냉각하기 위해 액체 냉각 이점을 활용한다. AWS는 새로운 데이터센터와 기존 데이터센터 모두에서 구성 가능한 액체-칩(liquid-to-chip) 냉각을 제공하는 새로운 기계식 냉각 솔루션을 개발했다. 일부 AWS 기술은 액체 냉각이 필요하지 않은 네트워크·스토리지 인프라를 활용한다. 업데이트된 냉각 시스템은 AWS 트레이니움2 같은 AI 칩셋은 물론 엔비디아의 AI 슈퍼컴퓨팅 솔루션, AWS의 네트워크 스위치·스토리지 서버를 위한 공기, 액체 냉각 기능을 원활하게 통합할 수 있다. 이 유연한 멀티모달 냉각 설계를 통해 AWS는 전통적인 워크로드나 AI 모델을 실행할 때 최저 비용으로 최대 성능과 효율성을 제공할 수 있다. 이 독특한 액체 냉각 랙 설계는 AI 워크로드의 시장 출시 시간을 가속화하기 위해 선도적인 칩 제조업체들과 협력하여 개발됐다. 고밀도 AI 워크로드 지원도 주요 특징이다. AWS는 데이터센터에서 랙을 배치하는 방법을 최적화함으로써 전력 사용 효율성을 극대화하고 있다. 이는 서버를 배치하는 가장 효율적인 방법을 예측하는 데이터와 생성형 AI 기반 소프트웨어를 통해 달성됐다. AWS는 이제 사용 가능하지만 사용되지 않거나 충분히 활용되지 않는 에너지인 미사용 전력의 양을 줄이고 사용 가능한 에너지를 더욱 효율적으로 활용할 것이다. AWS는 지속적인 혁신을 통해 데이터센터 운영 방식을 재평가하고 인프라가 에너지를 더욱 효율적으로 사용할 수 있는 방법을 결정한다. 우선 피크 냉각 시 메가와트당 물 사용량을 증가시키지 않으면서도 기존 설계 대비 기계 에너지 소비를 최대 46% 절감할 수 있는 보다 효율적인 냉각 시스템을 제공한다. 설계 변경사항에는 새로운 단면 냉각 시스템, 냉각 장비 감소, 액체 냉각 기능 도입이 포함된다. 이 방법은 데이터센터 건물 외피의 콘크리트 내 탄소 포집량을 업계 평균 대비 최대 35%까지 줄일 수 있다. AWS는 저탄소 강철 및 콘크리트 사양을 채택하고 구조 설계를 최적화해 전체적으로 강철 사용을 줄인다. 백업 발전기는 화석 디젤과 비교해 연료의 수명주기 동안 온실가스 배출량을 최대 90%까지 줄일 수 있는 생분해성 및 무독성 연료인 재생 디젤로 운영될 수 있다. AWS는 이미 유럽과 미국의 기존 데이터센터에서 백업 발전기의 연료를 재생 디젤로 전환하기 시작했다. AWS 프라사드 칼야나라만 인프라 서비스 부문 부사장은 "최첨단 데이터센터 기능은 에너지 효율성을 높이고 새로운 워크로드를 유연하게 지원한다는 점에서 중요한 진전을 의미한다"며 "액체 냉각·에너지 효율성으로 인프라를 개조할 수 있어 생성형 AI 애플리케이션을 지원하고 탄소 발자국을 줄일 수 있다"고 말했다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241203182607) |
| AWS, 공유 정책 폐지…MSP "멀티클라우드 기조 견제" | 2024.12.04 |
아마존웹서비스(AWS)가 클라우드 서비스 '공유(Sharing)' 옵션을 변경하며 클라우드 비즈니스에 변화를 예고하고 있다. 이에 대해 국내 클라우드서비스관리(MSP) 기업들은 인공지능(AI) 서비스 등 신규 비즈니스에 집중하고 있어 큰 영향이 없을 것이라는 반응이다. 4일 관련업계에 따르면 AWS는 EC2 클라우드 인프라 공유 옵션을 내년 6월 폐지한다고 밝혔다. 공유 옵션은 구매자가 다른 사용자 계정과 클라우드 리소스를 공유할 수 있도록 지원하는 기능이다. 이를 활용해 MSP는 한 번에 대규모로 클라우드 인프라를 장기간 약정 방식으로 구입해 클라우드 리소스가 필요한 기업들에게 제공하는 비즈니스를 수행해 왔다. 특히 대량의 인프라를 1년에서 3년 등 약정으로 구매하는 과정에서 받은 할인혜택을 받아 이 차액으로 수익을 발생시킬 수 있었다. 하지만 구입한 클라우드 서비스를 이용하는 고객이 없을 경우 손실이 그대로 MSP에 발생하며 최근 급증한 환율로 인해 구축 비용 대비 수익성이 점차 줄어들고 있다. 이로 인해 이전부터 MSP가 사업 규모대비 영업이익률이 낮은 주요 원인으로 지목돼 왔다. 이에 MSP는 AI를 활용한 자동화 도구, 하이브리드 클라우드 통합 모니터링 서비스 등 클라우드 운영 관리 및 기업 디지털혁신(DX) 도구 등 클라우드 기반 대외 서비스에 집중하는 추세다. 관련 업계에서는 이번 정책 변화에 대해 AWS가 최종 사용자와의 직접 거래를 활성화해 클라우드 환경의 지배구조를 확대하려는 전략으로 분석하고 있다. 업계 한 관계자는 "기존에 AWS의 클라우드 서비스를 사용 중인 고객사를 직접 관리하려는 것으로 보인다"며 "다만 이번 정책이 전세계에 모두 적용되는 것으로 아는데 모든 고객사를 관리할 수준의 인력을 확보하고 있는지 의문"이라고 말했다. 다른 MSP기업 임원은 "최근 전 세계적으로 멀티클라우드를 도입하려는 기조가 강해지면서 이를 방지하려는 의도가 숨어있는 것이 아닌가 싶다"며 "MSP는 고객사들이 원하는 클라우드와 업무 환경을 구축할 수 있도록 최선을 다할 것"이라고 강조했다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241204111604) |
| AWS, 멀티모달 '아마존 노바' 공개…"구글·오픈AI보다 가성비↑" | 2024.12.04 |
아마존웹서비스(AWS)가 생성형 인공지능(AI) 사업을 본격 확장했다. 차세대 AI 칩과 새 AI 모델 시리즈를 공개하고 기존 솔루션 기능을 업그레이드했다. 이를 통해 고객에게 고성능·저비용 AI 서비스를 제공하겠다는 전략이다. 맷 가먼 AWS 최고경영자(CEO)는 3일(현지시간) 미국 라스베이거스에서 열린 'AWS 리인벤트' 기조연설에서 기업의 모든 애플리케이션에 AI가 탑재될 것이라며 이를 위한 AWS 사업 전략을 발표했다. 트레이니움3 내년 말 출시…애플 무대 첫 등장 이날 가먼 CEO는 3나노미터 공정으로 제작된 차세대 AI 칩인 '트레이니움3'를 공개했다. 내년 말 출시 예정이다. 이 칩은 이전 세대인 Trn2 울트라서버보다 4배 높은 성능을 갖췄다. 가먼 CEO는 현재 트레이니움2를 이용하는 고객을 소개했다. 이들이 트레이니움2를 통해 이룬 성과를 공유했다. 특히 애플이 처음 리인벤트에 참석해 트레이니움2를 통한 애플 인텔리전스 개발 후기를 알렸다. 애플은 AWS와 약 10년 동안 파트너십을 맺었다. 애플 브누아 뒤팽 ·AI 수석 디렉터는 "AWS와 협력을 통해 애플 인텔리전스 기술을 강화할 계획"이라면서 "이를 위한 확장성 있는 성능과 기술이 필요하다"고 밝혔다. 이어 "AWS는 이런 요구를 만족시킬 수 있다"며 "트레이니움2는 애플 인텔리전스 효율성을 50% 개선할 것이라는 내부 평가가 나오기도 했다"고 설명했다. 새 AI 모델 '아마존 노바' 발표..."타이탄 확장판" 이날 앤디 제시 아마존 CEO가 무대에 올라 새로운 AI 모델 시리즈 '아마존 노바'를 발표했다. 이번에 공개 모델은 거대언어모델(LLM) '아마존 노바 마이크로'와 멀티모달 모델 '아마존 노바 라이트' '아마존 노바 프로' '아마존 노바 프리미어'다. 현재 아마존 베드락에서 이용 가능하다. 기존 AI 모델인 '타이탄' 확장판인 것으로 알려졌다. 아마존 노바 마이크로는 문자만 이해·처리할 수 있는 모델이다. 초당 210개 출력 토큰을 생성할 수 있다. 메타의 '라마' 3.1 8B 모델과 구글의 '제미나이 1.5 플래시' 8B 모델 대비 모든 벤치마크에서 동등하거나 더 우수한 결과를 기록했다. 빠른 응답이 필요한 애플리케이션에 최적화된 모델이다. 아마존 노바 라이트는 텍스트와 이미지, 비디오를 처리하는 멀티모달 형태다. 오픈AI의 GPT-4o 미니와 비교했을 때 19개 부문 중 17개에서 동등하거나 더 나은 성과를 기록했다. 제시 CEO는 "이 모델은 비용 효율성과 속도를 동시에 갖춘 모델로 다양한 작업에서 활용될 수 있다"고 설명했다. 아마존 노바 프로는 다양한 작업에서 정확성, 속도, 비용 효율성을 최적화한 고성능 멀티모달 모델이다. 오픈AI의 GPT-4o와 비교했을 때 20개 벤치마크 중 17개에서 동등하거나 더 우수한 결과를 보였다. 구글의 '제미나이 1.5 프로'와 비교할 경우 21개 중 16개 벤치마크에서 동등하거나 더 나은 성과를 나타냈다. 복잡한 추론 작업과 사용자 정의 모델 학습을 위한 모델이다. 아마존 노바 프리미어는 복잡한 추론 작업에서 가장 강력한 성능을 제공하는 멀티모달 모델이다. 사용자 맞춤형 모델 학습도 지원한다. 긴 컨텍스트를 처리할 수 있는 능력을 갖췄으며, 최대 30만 개의 입력 토큰 또는 약 30분 분량의 비디오를 처리할 수 있다. 제시 CEO는 "내년 초까지 200만 개 이상의 입력 토큰을 지원할 계획"이라고 밝혔다. AWS는 내년 1분기에 음성 AI 모델 출시 계획도 알렸다. 이 모델은 스트리밍 음성 입력을 이해하고 음성 억양과 리듬 등 비언어적 신호를 해석하는 기능을 갖췄다. 이를 통해 자연스럽고 인간과 유사한 상호작용을 제공할 수 있다. 내년 중반에는 문자뿐 아니라 이미지, 오디오, 비디오를 입력받아 어떤 형식으로든 출력할 수 있는 멀티모달 모델 출시도 앞뒀다. "AI 개발 더 쉽고 저렴하게"…아마존 베드락 업데이트 AWS는 아마존 베드락 업데이트 소식도 알렸다. 개발자가 아마존 베드락으로 AI 연구와 애플리케이션 개발을 더 빠르고 저렴하게 진행할 수 있도록 신기능을 추가했다. 아마존 베드락은 '모델 디스틸레이션' 기능을 탑재했다. 대형 모델이 갖고 있는 복잡한 지식을 소형 모델에 쉽게 이전해 주는 기술이다. 해당 지식을 전달받은 소형 모델은 같은 지식을 가진 대형 모델보다 최대 500% 더 빠르고 75% 더 저렴한 비용으로 작동할 수 있다. AWS는 아마존 베드락 내 모델들에 '지연 시간 최적화 버전'을 적용했다고 발표했다. 현재 메타 '라마'와 앤트로픽 '클로드 3.5 하이쿠'에만 적용한 상태다. 특히 하이쿠 모델은 기존보다 추론 속도가 60% 개선됐다. 그는 "트레이니움2를 활용해 고성능·고효율 AI 모델을 구축할 것"이라고 밝혔다. 두 기업은 대규모 AI 모델 훈련에 특화된 클러스터 '프로젝트 레이니어'를 발표했다. 이 클러스터는 수십만 개의 트레이니움2 칩으로 구성돼 기존 대비 5배 이상의 성능을 제공한다. AWS는 자동화된 추론 검사(Automated Reasoning Check) 기능도 아마존 베드락에 추가했다. 이를 통해 모델 응답 정확성을 수학적 증명을 통해 검증하고 사실 오류를 방지할 수 있다. 가먼 CEO는 "자동화 추론 검사 목표는 모델의 환각 문제를 최소화하기 위함"이라며 "환각은 기업 환경이나 민감한 정보가 중요한 도메인에서 결과 신뢰성을 크게 저하할 수 있다"고 지적했다. 이에 "이 기능은 단순히 오류를 감지하는 데 그치지 않는다"며 "발견된 문제를 수정하기 위한 권장 사항도 제공한다"고 덧붙였다. AWS는 아마존 베드락에 '모델 지연 시간 최적화 버전'도 추가했다. 현재 메타의 '라마'와 앤트로픽의 '클로드 3.5 하이쿠'에 적용한 상태다. 특히 하이쿠는 해당 기능 적용 후 추론 속도가 60% 늘었다. 기업·개발자 업무 생산성, '아마존 Q'가 책임진다 이날 AWS는 생성형 AI를 개발·비즈니스에 활용할 수 있는 '아마존 Q' 제품군을 새로 발표했다. 아마존 Q 디벨로퍼는 개발자의 생산성을 높이고 반복적인 작업을 줄이기 위해 설계된 생성형 AI 어시스턴트다. 문서 검색부터 실시간 코드 제안, 에이전트로 복잡한 작업 간소화를 돕는다. 또 유닛 테스트 자동 생성, 코드 문서화 및 코드 리뷰 자동화, 코드 변환과 레거시 현대화 등 개발자의 업무 효율을 높이는 다양한 기능을 제공한다. 아마존 Q 비즈니스는 반복적이고 시간이 많이 드는 사무 업무를 줄인다. 다양한 시스템과 애플리케이션에서 데이터를 빠르게 찾고 분석해 비즈니스 의사 결정을 지원한다. 가먼 CEO는 "고객 요구에 부응하는 혁신적인 AI 솔루션을 제공하기 위해 노력할 것"이라며 "이번 발표를 통해 기업들이 AI 모델의 효율성과 성능을 극대화할 수 있을 것으로 기대한다"고 강조했다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241204090533) |
| 일론 머스크 xAI, 오픈AI '챗GPT'와 유사한 서비스 곧 공개 | 2024.11.28 |
일론 머스크가 이끄는 인공지능(AI) 스타트업인 xAI가 오픈AI를 겨냥해 '챗GPT'와 유사한 개인용 서비스를 조만간 선보인다. 28일 월스트리트저널(WSJ), 파이낸셜타임즈(FT), 테크크런치 등 주요 외신에 따르면 xAI는 사용자들이 기기에서 xAI 그록 챗봇(Grok chatbot)에 접근할 수 있는 앱을 출시할 예정이다. FT는 이 앱이 xAI 펀딩(투자 유치) 라운드 마감 후 출시될 것으로 전망했다. xAI는 이번 투자에서 50억 달러(약 8조3천830억원)를 모금할 것으로 예상된다. 이에 따른 기업 가치는 기존보다 두 배 이상 높아진 500억 달러(약 83조8천288억원)로 평가 받는다. 6개월 전 기업 가치는 240억 달러였다. 또 일론 머스크는 자신의 440억 달러 규모 트위터 인수를 지원하는 투자자들에게 보답으로 xAI 주식 25%를 제공한 것으로 알려졌다. 피델리티, 오라클 공동 창업자 래리 엘리슨, 트위터 창업자 잭 도시 등은 xAI 가치 상승으로 인해 투자금 회수에 성공한 것으로 전해졌다. 이번 펀딩 라운드에는 카타르 투자청과 투자사 밸러에쿼티파트너스(Valor Equity Partners), 세콰이어캐피털, 안드레센호로위츠가 참여할 것으로 예상됐다. 도널드 트럼프가 이번 미국 대통령 선거에서 승리한 이후 xAI, 스페이스X 등 머스크의 사업에 대한 투자자들의 관심은 증가하고 있다. 머스크가 트럼프 2기 행정부의 정부효율부(DOGE) 수장으로 임명되자, 그가 최고경영자(CEO)로 있는 테슬라의 주가는 미국 대선일인 지난 5일 종가 대비 전날까지 약 35% 상승했다. 지난해 7월 설립된 xAI는 신규 자금의 일부를 AI모델 훈련을 위한 10만 개의 엔비디아 칩 추가 구매 자금으로 사용할 계획이다. xAI는 지난 여름 테네시주 멤피스에 10만 개의 엔비디아 칩이 들어가는 데이터센터를 건설하기도 했다. xAI가 지난해 11월 출시한 AI 챗봇 그록은 오픈AI, 앤스로픽, 구글 등과의 경쟁에선 다소 뒤처진 상태다. 머스크는 멤피스 데이터센터의 규모를 두 배로 늘릴 것이라고 밝힌 바 있다. 테크크런치는 "펀딩 라운드 완료 시 올해 xAI가 모금한 총 금액은 110억 달러가 될 것"이라고 말했다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241128075854) |
인공지능 일기예보가 슈퍼컴 예보 크게 능가 | 2024.12.05 |
미 구글의 인공지능 회사 딥마인드가 운영하는 일기 예보가 태풍 예보는 물론 일상적 일기 예보에서 전 세계 모든 예보를 능가했다고 미 뉴욕타임스(NYT)가 4일(현지시각) 보도했다. 변수가 너무 많은 일기예보에서 장기 예측은 불가능한 일로 간주돼 왔다. 1960년대부터 최대 2주가 예보할 수 있는 한계로 여겨져 2주 이상의 예보는 이뤄지지 않고 있 |
뉴시스(https://www.newsis.com/view/NISX20241205_0002984812) |
메타, 100억 달러 규모 '해저 광케이블' 독자 구축 | 2024.12.01 |
메타가 전 세계를 연결하는 독자적인 '해저 광케이블' 구축에 돌입했다. 구글처럼 독자 해저 케이블을 구축해 글로벌 네트워크 인프라를 강화하기 위함이다. 더버지 등 외신에 따르면 케이블의 모양 때문에 'W'라는 이름이 붙은 메타의 프로젝트는 100억 달러 규모로, 총 4만 킬로미터 이상의 네트워크를 구축할 예정이다. 앞서 지난 10월 해저 케이블 전문가 수닐 타가레는 메타의 '모든 해저 케이블의 어머니(프로젝트 W)' 제작에 대해 처음 공개했다. 이와 관련해 테크크런치는 계획이 아직 초기 단계이고, 메타가 내년에 더 많은 정보를 공개할 것으로 예상된다고 보도했다. 메타는 현재 16개의 기존 네트워크의 공동 소유자로 참여하고 있지만, 이번 새로운 케이블 프로젝트는 전적으로 메타가 소유하게 된다. 이를 통해 자체 제품 및 서비스에 대한 트래픽의 우선순위를 정할 수 있는 완전한 통제권을 갖게 된다. 이는 구글이 일부 케이블 경로를 사유화하고 33개의 다른 케이블 네트워크에 투자한 것과 비슷한 움직임으로 풀이된다. 메타는 미국 동해안에서 시작해 인도, 남아프리카, 호주를 거쳐 다시 미국 서해안으로 돌아오는 경로를 구축하려는 것으로 알려졌다. 이는 지정학적으로 불안정한 지역을 피하는 것이 목표다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241201032618) |
산업부, AI 데이터센터 냉각시스템 수출보험 3500억 지원 | 2024.12.02 |
산업통상자원부가 인공지능(AI) 데이터센터 냉각시스템을 우리나라 수출 주역으로 육성하기 위해 수출보험 3500억원을 지원한다. 안덕근 산업부 장관은 2일 LG전자 평택칠러공장을 방문해 AI 데이터센터 냉각시스템 생산라인을 직접 확인하고, 현장에서 업계의 의견을 청취했다. LG전자 평택칠러공장은 미국 빅테크 기업과 데이터센터 수주계약을 체결하 |
뉴시스(https://www.newsis.com/view/NISX20241202_0002979667) |
ETRI-국가철도공단, "2028년 디지털트윈 등 공동 실증" | 2024.12.02 |
국내 연구진이 스마트 철도망 구축과 철도 정보통신기술의 고도화를 위해 나섰다. 한국전자통신연구원(ETRI)은 2일 원내에서 국가기간철도의 스마트화를 위해 인공지능(AI), 디지털 트윈 네트워크(DTN), 5G/6G 등 첨단 기술에 대한 협력체계를 구축키로 하는 협약을 체결했다. 철도와 통신은 물류관리 및 서비스라는 공통점이 있어 철도에 ICT의 다양한 첨단기술 적용은 양 기관 간 기술진화, 빠른실증, 조기상용화 등 의미가 크다. 이번 협력 체결로 양 기관은 철도정보통신망 데이터의 공유와 실증을 공동으로 추진한다. 공단은 철도정보통신망 고도화를 추진 중이다. ETRI는 디지털 트윈 네트워크 기술을 보유했다. 양 기관은 향후 ▲철도시스템의 지능화, 자동화, 자율화, 무인화 등 진화 로드맵 마련 ▲2028년 디지털 트윈 기반 자율철도망 실현을 위한 데이터 공유 및 차세대 철도통신 네트워크 실증사업에 나선다. 또 ▲스마트 철도역사시스템의 고도화 및 확대 구축 방안 마련 ▲차세대 이동통신, 디지털 트윈, AI 기술 기반의 차세대 철도관제시스템 상용화 방안 마련 ▲국내 철도기술의 글로벌 경쟁력 강화를 위한 정보통신기술 기반의 융합형 국가 과제 발굴을 추진키로 했다. 국가철도공단은 시속 400km 이상의 고속철도 기술, 스마트 철도 기술, 3차원 스마트 건설 기술 등 미래형 철도인프라 관리체계의 확립을 통해 탄소중립을 위한 중추적인 역할수행과 K-철도의 글로벌 시장 진출 지원을 추진 중이다. ETRI 입체통신연구소도 정보통신망 초고속 데이터 전달 기술, 실시간장애복구 기술, 실시간 철도망제어를 위한 초저지연 통신 기술, 정보통신망 장애 및 운용자동화 등 정보통신망 고도화 관련 다수의 R&D 수행 및 핵심 기술을 보유했다. 국가철도공단 이성해 이사장은 “최신 정보통신기술이 접목되고 디지털트윈이 도입되면 철도의 안전과 혁신을 실현할 뿐만 아니라, 모빌리티 혁명시대에 철도의 주인인 고객만족을 위한 철도서비스 고도화에 기여할 것"으로 기대했다. ETRI 방승찬 원장도 “세계 선도 기술수준을 보유하고 있는 한국의 입체통신기술 및 디지털 트윈 네트워크 기술을 국내철도망에 적용을 시작으로 해외 철도망의 PMO 비즈니스 확대뿐만 아니라 정보통신망 지능화 기술 수출의 교두보 마련을 기대한다”고 밝혔다. 한편, ETRI는 과학기술정보통신부 지원으로 '디지털 트윈 기반 네트워크 장애 예방 및 운영관리 자동화 기술개발'등을 추진 중이다. |
지디넷코리아(https://zdnet.co.kr/view/?no=20241202212429) |
ETRI, 강소형 국산 생성 언어모델 '이글' 공개 | 2024.11.28 |
국내 연구진이 국어 중심의 신경망 기반 소형 생성 언어모델을 개발해 일반에 공개했다. 한국전자통신연구원(ETRI)은 한국어 기반 30억개 파라미터(3B)급 신경망 기반 소형 생성 언어모델(SLM) '이글(Eagle)'을 개발해 오픈소스인 허깅페이스 허브(HuggingFace Hub)에 공개했다고 28일 밝혔다. 생성형 언어모델은 방대한 텍스 |
뉴시스(https://www.newsis.com/view/NISX20241128_0002976297) |