기업들의 생성 AI 도입이 가속화되고 있다. 챗GPT와 같은 생성 AI 서비스의 인기가 높아지며 유료 고객을 대상으로 고객 데이터 학습을 지원하는 서비스도 활발히 제공되고 있다. 그러나 최근 기업들은 클로즈드 모델 대신 오픈소스 모델을 파인튜닝해 각자 기업 목표에 최적화한 맞춤형 서비스를 구축하는 방식으로 전환하고 있다. 파인튜닝은 라마(Llama), 미스트럴(Mistral), 퀜(Qwen)과 같은 오픈소스 모델을 특정 데이터로 재학습해 기업 내부 데이터나 특정 업무 관련 정보를 반영한 AI 서비스를 구축하는 기술이다. 이 기술의 강점은 투명성과 소유권에 있다. 기업은 모델의 내부 구조를 이해함으로써 신뢰성 높은 AI 서비스를 설계할 수 있으며 외부 서비스의 정책이나 비용 변동에 영향 받지 않고 안정적으로 AI 서비스를 운영할 수 있다. 이러한 흐름 속에서 기업 프렌들리에이아이는 지난 10월 오픈소스 모델을 활용한 기업 맞춤형 AI 개발 서비스 ‘프렌들리 파인튜닝’을 출시했다고 18일 밝혔다. 이 서비스를 통해 기업은 비용 효율적인 오픈소스 모델을 최적화해 사내 업무와 서비스에 효과적으로 도입할 수 있으며 이 과정에서 발생하는 높은 GPU 비용과 실무적 부담
그동안의 비즈니스 행보와 AI 기술 및 연구 성과 공유해 메타가 10일 ‘메타의 AI 미디어 브리핑’ 행사를 개최하고, 오픈소스 대규모 언어모델인 ‘Llama(라마)’를 중심으로 한 AI 기술 및 오픈소스 접근 방식과 메타 인공지능 연구소 FAIR(Fundamental AI Research)의 연구 내용을 발표했다. 이번 행사는 그간 메타가 오픈소스 선두주자로서 걸어온 행보와 AI 기술 및 연구 성과를 공유하기 위해 마련됐다. 마노하 팔루리(Manohar Paluri) 메타 생성형 AI 부사장과 메타 FAIR 연구팀, 장광선 한국과학기술정보연구원(KISTI) 선임연구원이 발표자로 나선 가운데, 라마의 성과 및 오픈소스 접근 방식, 국내 라마 활용 사례, FAIR의 최신 연구 내용 등이 소개됐다. 이날 첫 발표자로 나선 마노하 팔루리 부사장은 라마가 일궈낸 그간의 성과와 커뮤니티 주도의 혁신을 촉진하는 핵심 기술로서의 역할을 공유했다. 메타는 최근 발표한 Llama 3.2 모델을 포함해 총 4번의 성공적인 배포를 마쳤으며, AI 커뮤니티 내에서의 영향력을 키워나가고 있다. 구체적으로 현재까지 라마 모델은 4억 회 이상 다운로드됐으며, 이는 작년 대비 10배 증
알리바바 클라우드가 압사라 컨퍼런스에서 새롭게 출시한 대규모 언어 모델 큐원2.5(Qwen2.5)를 전 세계 오픈소스 커뮤니티에 배포했다. 알리바바 클라우드는 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 풀스택 인프라도 개편했다. 이 신규 인프라는 컴퓨팅, 네트워킹 및 데이터센터 아키텍처를 강화하는 클라우드 제품과 서비스를 포함한다. 에디 우 알리바바 클라우드 인텔리전스 CEO는 “알리바바 클라우드는 AI 기술의 연구개발과 글로벌 인프라 구축에 적극적으로 투자하고 있다”며 “글로벌 고객에게 미래 AI 인프라를 제공하고, 비즈니스 잠재력을 극대화하도록 돕는 것을 목표로 한다”고 밝혔다. 신규 오픈소스 큐원 2.5 모델은 0.5억에서 720억 개의 매개변수를 갖췄다. 29개 이상의 언어를 지원하며, 자동차·게임·과학 연구 등 다양한 분야에서 엣지나 클라우드 환경에서 폭넓은 AI 애플리케이션으로 활용된다. 이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개한다.기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다. 조우징런 알리바바 클
프리뷰 버전은 영어만 지원하며, 입력 토큰 수도 4096자로 제한돼 업스테이지가 올 11월 출시 예정인 자사의 차세대 LLM ‘솔라 프로’의 초기 테스트용 모델인 ‘솔라 프로 프리뷰’ 버전을 오픈소스 및 무료 API를 통해 전면 공개한다고 11일 밝혔다. 솔라 프로는 솔라 LLM 시리즈의 상위 모델로, 올 11월 공식 출시를 앞두고 있다. 업스테이지는 현재 개발 중인 모델을 미리 테스트해 볼 수 있는 프리뷰 버전을 오픈소스로 공개하는 한편, API 호출 비용까지 무상 지원할 예정이다. 프리뷰 버전은 영어만 지원하며, 입력 토큰 수도 4096자로 제한된다. 솔라 프로는 220억(22B) 매개변수를 갖춰 기존 ‘솔라 미니’(107억) 대비 두 배 이상 커지고 성능도 대폭 향상됐지만, DUS(깊이 확장 스케일) 기술 등 자체 LLM 모델링 방법론을 고도화한 결과, 여전히 단 1개의 GPU에서 구동이 가능한 수준으로 경량화에 성공했다. 최근 GPU 가격 급등과 수급난으로 골머리를 앓는 기업용 AI 시장의 판도를 크게 바꿀 것으로 기대를 모은다. 솔라 프로는 인문학뿐 아니라 과학·기술·공학·수학(STEM) 종합 지식을 평가하는 ‘MMLU Pro’, 지시 이행 능력을
EDB는 신한EZ손해보험이 기존 오라클 DBMS를 교체하고, 신규 서비스를 제공하기 위해 자사의 오픈소스 기반 데이터관리시스템(DBMS)인 ‘포스트그레스 어드밴스드 서버(Postgres Advanced Server, EPAS)’를 도입했다고 27일 밝혔다. 신한EZ손해보험은 EDB의 포스트그레스 어드밴스드 서버 12를 도입해 투자 비용을 6개월여 만에 회수했으며, 기존 1년 운영비용을 50% 이상 절감할 수 있었다고 전했다. 또한 EPAS를 도입하고 오픈 소스 관리체계와 표준 운영가이드를 마련해 IT서비스 안정성과 효율성을 높였다. 아울러 EPAS를 도입으로 내부 운영효율성 면에서도 큰 개선이 이뤄져 서버 이중화와 RPO(복구 시점 목표), RTO(복구 시간 목표) 기준에 맞춰 DR(재해복구) 및 이중화 시스템 운영을 자동화함으로써 유연한 아키텍처의 구성이 가능해졌다. 오라클 DBMS와의 높은 호환성을 바탕으로 기존 DB에 대한 마이그레이션도 용이해졌다. 신한EZ손해보험 IT기획운영팀 김수창 매니저는 “신한EZ손해보험은 EDB의 EPAS 를 도입해 오픈소스 기반의 대용량 DB를 위한 관리시스템으로서 충분한 유연성과 확장성, 안전성을 갖추게 됐다”며 “특히 포
라마 출시 이후 국내에서 처음으로 기술 솔루션 경진대회로 열려 메타가 AI 기술을 통한 사회적, 경제적 문제 해결과 발전을 지원하고자 한국에서 처음으로 AI 경진대회를 개최한다. 라마 출시 이후 한국에서 처음으로 열리는 기술 솔루션 경진대회로, 과학기술정보통신부와 한국전파진흥협회가 후원한다. 참가자격은 라마를 기반으로 제품이나 서비스를 개발했거나 현재 개발 중이며, 운영한지 최소 1년 이상되는 기업 및 단체다. 참가 분야는 사회적 효과, 경제적 효과 등의 주제 중 선택할 수 있다. 이번 한국 대회 우승자에게는 1500만 원의 상금과 한국을 대표해 오는 10월 싱가포르에서 열리는 아시아태평양 결승대회 출전 기회가 주어진다. 아시아태평양 결승의 상금은 총 10만 달러에 달한다. 참가 신청은 ‘Meta Llama 경진대회’ 공식 사이트를 통해 오는 8월 21일 오후 5시까지 접수 가능하며, 제출한 기획서를 토대로 서면심사가 이뤄질 예정이다. 서면심사 통과자는 오는 9월 메타 서울 오피스에서 열리는 피칭 이벤트에서 결승대회 참가 기회를 두고 프로젝트를 발표하게 된다. 대회 심사기준은 기술적 구현의 정도, 잠재적 영향력, 윤리 및 사회적 책임성 등이다. 심사위원으로는
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량
젠슨 황 "라마 3.1, 최첨단 생성형 AI 애플리케이션 구축할 수 있는 문 열어" 엔비디아가 메타의 오픈소스 AI 모델 컬렉션인 라마 3.1을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이제 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 세계 최고의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드 AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 거대 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아 창
문서 AI 전문 기업 ㈜이파피루스(대표 김정희)는 오픈소스 PDF 라이브러리 ‘MuPDF(뮤피디에프)’의 웹사이트 ‘MuPDF.com(뮤피디에프닷컴)’을 리뉴얼했다고 지난 20일 밝혔다. MuPDF는 이파피루스의 자회사인 미국 아티펙스 사(Artifex Inc.,)가 보유한 C언어 기반 오픈소스 라이브러리로 PDF, XPS 및 EPUB 문서 이미지 렌더링을 비롯해 PDF 변환, 처리 및 추출 등 다양한 문서 작업에 폭넓게 사용된다. 특히 MuPDF의 파이썬 바인딩인 ‘PyMuPDF(파이뮤피디에프)’는 2016년 첫 출시 이래 전 세계에서 6천만 번 이상 다운로드되었으며, 2023년에는 미국 오픈AI 사의 인공지능 챗봇 ‘챗GPT’의 학습 및 문서 처리용으로 공급되어 인공지능 업계의 주목을 한 몸에 받았다. 새롭게 단장한 ‘MuPDF.com’은 그동안 여러 채널에 흩어져 있던 MuPDF 제품군을 한 자리에 모아 정리, 글로벌 개발자들이 보다 손쉽게 이용할 수 있는 통합 원스톱 플랫폼으로 거듭났다. 2005년 첫 출시 이래 여러 번 업데이트와 세분화를 거친 MuPDF 시리즈의 다양한 기능과 특성을 직관적인 디자인과 상세한 안내 자료를 통해 알기 쉽게 소개한다.
기업 업무 인프라에 AI 플랫폼 접목...고도의 비즈니스 자동화 시스템 구축한다 인공지능팩토리가 리눅스데이타시스템(LDS)과 기업 업무 자동화 솔루션을 고도화하기 위한 협력에 착수했다. 양사는 서울 강남구 소재 리눅스데이타시스템 본사에서 김태영 인공지능팩토리 대표이사, 정정모 리눅스데이타시스템 대표이사 등 양사 관계자가 모인 자리에서 업무협약식을 열고 협력체계를 구축했다. 이번 업무협약을 기점으로 각종 기업의 인프라 환경에 인공지능(AI) 플랫폼을 결합하고, 주요 기술 및 정보를 공유하기로 했다. 이를 통해 기업 업무 자동화 분야의 발전에 기여할 계획이다. 이 과정에서 리눅스데이타시스템의 리눅스 인프라에 인공지능팩토리의 AI 플랫폼을 탑재해 기업 비즈니스 자동화 솔루션을 제공하는 것이 목표다. 인공지능팩토리는 기업 업무 자동화 AI 챗봇 서비스 ‘베이터’를 구독 형태로 제시함과 동시에 각종 AI 모델을 발굴 중이다. 한편 오픈소스 IT 인프라 업체 리눅스데이타시스템은 글로벌 오픈소스 솔루션 업체 레드햇의 라인업을 중심으로 각종 오픈소스 솔루션을 아우르는 기술을 개발하고 있다. 헬로티 최재규 기자 |
SQL 코드 생성, 명령 이행 등 다양한 기준에서 만족할 만한 조건 충족해 스노우플레이크가 최고 수준의 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 동급 최고 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화해 SQL 코드 생성, 명령 이행 등 다양한 기준에서 만족할 만한 조건을 충족한다. 특히 아크틱 LLM은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 이 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 슈리다 라마스워미(Sridhar Ramaswamy) 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 개선된 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있
모든 레벨의 엔지니어가 새로운 기술에 손쉽게 접근하도록 설계돼 최근 임베디드 시장에서 오픈소스 기반의 RISC-V 프로세서 아키텍처에 대한 수요가 증가하지만, 아직까지 실제 제품에 적용해 쓸 수 있는 실리콘이나 하드웨어에 대해서는 여전히 선택의 폭이 제한적이다. 마이크로칩테크놀로지(이하 마이크로칩)는 이러한 격차를 해소하고 혁신을 지원하기 위해 PolarFire SoC 디스커버리 키트를 출시했다. 이 개발 키트는 임베디드 프로세싱 및 컴퓨팅 가속을 위해 다양한 기능을 갖춘 사용자 친화적인 제품으로, 모든 레벨의 엔지니어가 새로운 기술에 손쉽게 접근하도록 설계됐다. 이 오픈소스 개발 키트는 리눅스 및 실시간 애플리케이션을 지원하는 쿼드 코어, RISC-V 애플리케이션-클래스 프로세서, 95K저전력의 다양한 주변장치와 고성능 FPGA 로직 엘리먼트(LE)를 갖췄다. 이 키트는 모든 기능을 갖췄음에도 경제적인 가격으로 제공되며 빠른 애플리케이션 컨셉 테스트, 펌웨어 애플리케이션 개발, 사용자 코드 프로그래밍 및 디버깅에도 활용 가능하다. 마이크로칩 FPGA전략부 샤킬 피이라(Shakeel Peera) 부사장은 “PolarFire SoC 디스커버리 키트는 다양한 애
티맥스소프트가 AK플라자에 오픈소스 기반 통합 미들웨어 플랫폼 '하이퍼프레임(HyperFrame)'을 제공한다고 30일 밝혔다. AK플라자는 AK몰 시스템에 티맥스소프트의 하이퍼프레임을 적용하기로 했다. 티맥스소프트는 AK몰 시스템 환경에 적합한 오픈소스 미들웨어를 엄선해, 상용 소프트웨어(SW) 수준의 기술지원 서비스를 제공한다. 하이퍼프레임은 클라우드에 최적화한 다양한 오픈소스 미들웨어와 24*365 전문 서비스로 구성된 통합 솔루션이다. 티맥스소프트의 연구소에서 고객 시스템에 적합한 검증된 오픈소스를 선별해 제공하고, 숙련된 전문가가 맞춤 컨설팅, 시스템 진단, 오픈소스 라이선스 파악 및 도입, 운영, 기술지원 등까지 '엔드 투 엔드(End-to-End) 서비스'를 지원한다. 티맥스소프트는 하이퍼프레임으로 AK몰의 오픈소스 활용 경쟁력 강화와 시스템 고도화를 도울 것으로 기대한다. 무엇보다 고객이 기존에 오픈소스를 활용하며 겪었던 유지보수, 장애 대응 문제를 전폭적으로 해결할 수 있다고 회사 측은 전했다. 전문인력이 하이퍼프레임의 체계적인 프로세스를 토대로, 시스템 내 장애 발생 시 빠르게 원인을 분석한다. 대응 방안을 신속하게 도출해 이슈 해결 시간을
EDB는 2024년 DB 분야 주요 기술 트렌드를 17일 발표했다. EDB는 ▲레거시·상용 데이터베이스에서 오픈소스로의 이동 가속화 ▲인공지능(AI)과 머신러닝(ML) 기술의 도입 확대 ▲클라우드 데이터베이스의 부상 ▲DB 보안 강화에 대한 관심 증대 ▲오픈소스 DBMS 활용으로 기술 인재 격차 해소 등을 2024년 DB 분야 주요 기술 트렌드가 될 것으로 예상했다. EDB가 발표한 2024 DB 시장 주요 동향은 다음과 같다. 레거시·상용 데이터베이스에서 오픈소스로의 이동 가속화 오픈 소스 데이터베이스 라이선스는 2021년부터 상용 데이터베이스 라이선스를 앞지르기 시작했으며 이러한 추세는 둔화될 기미가 보이지 않고 있다. 레드햇의 최근 설문조사에 따르면 IT 관리자의 98%가 현재 또는 향후 엔터프라이즈 오픈소스 사용의 비즈니스 이점을 인식하고 있으며, 현재 오픈소스를 사용하는 응답자의 80%가 오픈소스 사용을 늘릴 계획이라고 답했다. 오픈소스로의 전환이 가속화되는 이유에 대해 '제4차 연례 기업 기술 현황' 백서에서는 오픈소스 기술로의 전환이 비용 절감(응답자의 63%)과 혁신(60%), 약관 개선(59%) 같은 요인에 의해 주도되고 있는 있는 것으로 나
바이든 행정부, 중국의 RISC-V 기술 연구에 대해 우려하는 것으로 알려져 중국의 반도체 개발을 견제해온 미국이 누구에게나 개방된 오픈소스 기술까지 규제하려는 움직임을 보이고 있다. 뉴욕타임스(NYT)는 10일(현지시간) 미국 하원 중국특위가 최근 조 바이든 행정부에 중국이 'RISC-V'를 사용할 수 없도록 통제하는 방안을 검토할 것을 주문했다고 보도했다. RISC-V는 미국 버클리 캘리포니아대(UC 버클리)가 내놓은 오픈소스 명령어 집합이다. 개발자들은 RISC-V를 이용해 반도체가 특정 명령어에서 약속된 작동을 하도록 설계할 수 있다. 업계에서 일반적으로 사용되는 영국의 반도체회사 ARM의 명령어 집합과는 달리 RISC-V는 무료로 공개됐다. 현재 전 세계 70여 국가의 4000여 개 업체가 RISC-V 진영에 이름을 올린 상태다. 중국의 화웨이와 알리바바 등도 포함돼 있다. 중국 업체들이 RISC-V를 이용해 성능이 뛰어난 반도체를 개발하는 상황을 사전에 차단하기 위해 기술을 통제해야 한다는 것이 미 하원 중국특위의 시각이다. 하원 중국특위의 민주당 간사인 라자 크리슈나무르티 의원은 "중국은 이미 RISC-V를 통해 반도체 기술 통제를 우회하는 방안