청소년의 안전한 온라인 사용에 대해 논의하는 장 마련해 메타가 5일 학계, 정책 기관 및 시민 사회의 주요 이해관계자들과 함께 청소년 온라인 안전 문제에 대한 정책 및 사회적 협력을 도모하는 ‘청소년 온라인 안전 라운드테이블’을 개최했다. 최근 청소년들의 스마트폰 과다 사용과 소셜미디어의 영향, 딥페이크 디지털 성범죄와 같은 온라인 위험 요소가 증가함에 따라, 청소년의 신체적·정신적 안전 보호의 필요성이 높아지고 있다. 이에 따라 메타는 유관 정책 기관, 학계, 10대 자녀를 둔 학부모 등과 함께 청소년의 안전한 온라인 사용에 대해 논의하는 장을 마련했다. 이날 행사는 메타 아시아태평양(APAC) 지역 안전 정책 총괄인 프리앙카 발라(Priyanka Bhalla) 박사의 ‘청소년 안전을 위한 메타의 접근 방식’ 발표로 시작됐다. 메타는 청소년에게 안전한 온라인 경험을 제공하기 위해 책임감 있는 연결, 연령에 적합한 경험 제공, 기술 고도화 측면에서 노력하고 있다. 먼저 메타는 플랫폼 내에서 타인과 원치 않는 교류는 피하고 긍정적인 상호작용을 지원하는 다양한 안전 도구를 제공하고 있다. 이러한 안전장치는 수년간의 연구와 전문가, 청소년 및 학부모의 피드백을 바
그동안의 비즈니스 행보와 AI 기술 및 연구 성과 공유해 메타가 10일 ‘메타의 AI 미디어 브리핑’ 행사를 개최하고, 오픈소스 대규모 언어모델인 ‘Llama(라마)’를 중심으로 한 AI 기술 및 오픈소스 접근 방식과 메타 인공지능 연구소 FAIR(Fundamental AI Research)의 연구 내용을 발표했다. 이번 행사는 그간 메타가 오픈소스 선두주자로서 걸어온 행보와 AI 기술 및 연구 성과를 공유하기 위해 마련됐다. 마노하 팔루리(Manohar Paluri) 메타 생성형 AI 부사장과 메타 FAIR 연구팀, 장광선 한국과학기술정보연구원(KISTI) 선임연구원이 발표자로 나선 가운데, 라마의 성과 및 오픈소스 접근 방식, 국내 라마 활용 사례, FAIR의 최신 연구 내용 등이 소개됐다. 이날 첫 발표자로 나선 마노하 팔루리 부사장은 라마가 일궈낸 그간의 성과와 커뮤니티 주도의 혁신을 촉진하는 핵심 기술로서의 역할을 공유했다. 메타는 최근 발표한 Llama 3.2 모델을 포함해 총 4번의 성공적인 배포를 마쳤으며, AI 커뮤니티 내에서의 영향력을 키워나가고 있다. 구체적으로 현재까지 라마 모델은 4억 회 이상 다운로드됐으며, 이는 작년 대비 10배 증
자사의 AI 모델과 도구를 오픈소스로 공개...'AI 개발 및 혁신 속도 높여' 메타가 주최한 AI 솔루션 공모 프로그램 ‘라마 임팩트 이노베이션 어워즈’에서 국내 생성형 AI 보안 기술 스타트업 에임인텔리전스가 수상자로 선정됐다. 라마 임팩트 이노베이션 어워즈는 메타의 대규모 오픈소스 언어 모델인 라마2 또는 라마3를 활용해 지역사회의 문제 해결에 기여하는 AI 개발자 및 조직을 발굴하고 지원하는 글로벌 프로그램이다. 개방형 혁신을 위한 메타의 지속적 노력의 일환이며, 교육, 경제, 신뢰 및 안전성 측면에서 혁신적인 솔루션을 제시한 기관들에 최대 3만5000달러의 상금을 수여한다. 메타는 자사의 AI 모델과 도구를 오픈소스로 공개하며 업계 관계자가 안전하게 AI를 개발하고 혁신을 가속화할 수 있도록 앞장서고 있다. 이번 어워즈에는 아프리카, 중동, 터키, 아시아 태평양, 라틴아메리카 등 전 세계 다양한 지역의 후보가 참여한 가운데, ‘라마 수호 프로젝트’를 제안한 국내 AI 스타트업 ‘에임인텔리전스’가 아시아 태평양 지역 수상자 중 하나로 선정됐다. 에임인텔리전스는 기술력과 사회적 기여도를 높이 평가받았으며 상금으로 2만5000달러를 수상했다. ‘라마 수호
실시간의 고처리량 추론 구현과 추론 시스템 스택 개발 및 오픈소싱 추진 스노우플레이크가 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축하도록 스노우플레이크 코텍스 AI에서 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모언어모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도우를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드투엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 스노우플레이크는 메타와 협력을 통해 고객에게 AI 데
라마 출시 이후 국내에서 처음으로 기술 솔루션 경진대회로 열려 메타가 AI 기술을 통한 사회적, 경제적 문제 해결과 발전을 지원하고자 한국에서 처음으로 AI 경진대회를 개최한다. 라마 출시 이후 한국에서 처음으로 열리는 기술 솔루션 경진대회로, 과학기술정보통신부와 한국전파진흥협회가 후원한다. 참가자격은 라마를 기반으로 제품이나 서비스를 개발했거나 현재 개발 중이며, 운영한지 최소 1년 이상되는 기업 및 단체다. 참가 분야는 사회적 효과, 경제적 효과 등의 주제 중 선택할 수 있다. 이번 한국 대회 우승자에게는 1500만 원의 상금과 한국을 대표해 오는 10월 싱가포르에서 열리는 아시아태평양 결승대회 출전 기회가 주어진다. 아시아태평양 결승의 상금은 총 10만 달러에 달한다. 참가 신청은 ‘Meta Llama 경진대회’ 공식 사이트를 통해 오는 8월 21일 오후 5시까지 접수 가능하며, 제출한 기획서를 토대로 서면심사가 이뤄질 예정이다. 서면심사 통과자는 오는 9월 메타 서울 오피스에서 열리는 피칭 이벤트에서 결승대회 참가 기회를 두고 프로젝트를 발표하게 된다. 대회 심사기준은 기술적 구현의 정도, 잠재적 영향력, 윤리 및 사회적 책임성 등이다. 심사위원으로는
라마 3.1 405B 포함해 다양한 규모와 기능에서 새로운 업데이트 모델 제공 인텔은 메타의 최신 대규모 언어 모델(LLM)인 라마 3.1에 데이터 센터, 엣지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하며, 새로운 모델이 인텔의 AI 하드웨어에 최적화하도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 지난 23일(현지 시각) 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4050억 개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치 및 인텔 파이토치 익스텐션, 딥스피드, 허깅 페이스 옵티멈 라이브러리, vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형AI 솔루션을 만들기 위한 LF AI 및 데이터 재단의 새로운 오픈 플랫폼 프로젝트인 OPEA
젠슨 황 "라마 3.1, 최첨단 생성형 AI 애플리케이션 구축할 수 있는 문 열어" 엔비디아가 메타의 오픈소스 AI 모델 컬렉션인 라마 3.1을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이제 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 세계 최고의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드 AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 거대 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아 창
SAP가 4일 미국 플로리다 올랜도에서 연례 컨퍼런스 ‘SAP 사파이어(SAP Sapphire)’ 행사를 개최했다. SAP는 이번 행사에서 AI 시대에 비즈니스를 한 단계 더 발전시키는 방법을 보여주는 AI 혁신과 파트너십을 공개했다. 크리스찬 클라인 SAP CEO및 이사회 임원은 “사파이어 2024에서 발표한 혁신적인 비즈니스 AI가 업무 방식 전반에 변화를 가져올 것“이라며 “SAP는 빠르게 변화하는 비즈니스 환경에서 고객이 민첩함과 독창성을 발휘할 수 있도록 실제 성과에 기여하는 혁신 기술을 제공하겠다“고 말했다. SAP는 엔터프라이즈 솔루션 전반에 비즈니스 AI를 탑재해 사용자에게 풍부한 인사이트를 제공한다. 보상 추천 기능으로 인사 관리자를 지원하는 SAP 석세스팩터스의 AI 생성 보고서, 판매가 가장 높을 것으로 예측되는 영업사원과 제품의 조합을 예측하는 SAP 세일즈 클라우드의 예측 기능 등이 바로 대표적인 사례로 꼽힌다. SAP 비즈니스 테크놀로지 플랫폼(SAP BTP)은 아마존웹서비스, 메타 및 미스트랄 AI의 대규모 언어 모델을 생성형 AI 허브에 추가하고 있다. SAP AI 코어의 이 기능을 통해 SAP 애플리케이션용 생성형 AI 사용 사
얀 르쾽 "논리에 대한 이해가 제한적...물리적 세계 이해하지 못해" 메타의 AI 책임자가 챗GPT와 같은 생성형 AI 제품을 구동하는 거대언어모델(LLM)이 인간 지능에는 이르지 못할 것이라는 견해를 밝혔다. 메타의 AI 수석 과학자인 얀 르쾽은 23일자 파이낸셜타임스(FT) 인터뷰에서 LLM은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것이라며 이같이 말했다. 이에 기계 장치에서 초지능(superintelligence)을 만들어내기 위한 급진적인 방식의 대안에 집중하고 있다고 전했다. 르쾽은 AI 기술을 개척한 공로를 인정받아 2019년 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 공동 수상했으며, 마크 저커버그 메타 최고경영자(CEO)의 핵심 고문 중 한 명으로 알려졌다. 그는 LLM에 대해 "논리에 대한 이해가 매우 제한적"이라며 "물리적 세계를 이해 못 하고 지속적인 기억력이 없으며, 용어에 관한 합리적 정의를 추론할 수도, 계층적으로 계획할 수도 없다"고 전했다. 그는 고급 LLM에 의존해 인간 수준의 지능을 만드는 것에 반대한다며, 이러한 모델은 올바른 학습 데이터가 제공돼야 정확하게 응답할 수 있어 본질적으로 안전하지 않다고 설명했
생성형 AI는 성장하고 확장하고 있다. 그야말로 생성형 AI의 시대다. 2년전 세간을 놀라게 한 오픈AI의 챗GPT를 시작으로, 기술의 흐름을 주도하는 주요 기업들은 연이어 생성형 AI 모델을 선보이고 있다. 이제는 생성형 AI를 빼놓고 혁신을 논할 수 없는 상황이 됐다. 대다수의 기업은 서둘러 AI 도입을 시도하며, 이를 통해 생산성 개선과 비용 절감을 경험함으로써 미래로 가는 길을 열고 있다. 생성형 AI는 텍스트, 이미지, 음악 등 다양한 형태의 콘텐츠를 인간과 유사한 방식으로 자동 생성하는 기술이다. 최근 몇 년 사이 이 기술은 비약적인 발전을 이뤘으며, 매력적인 연구 주제를 바탕으로 앞으로의 발전 가능성 역시 무궁무진하다. 생성형 AI는 친숙해진 언어모델로부터 이미지나 영상 생성, 멀티모달 AI에 이르기까지 점차 복잡한 작업을 수행하고 있다. 이러한 생성형 AI를 만드는 주요 기업은 기술 개발뿐 아니라 윤리적 및 법적 체계를 구축하고, 접근성 향상 등에 대한 과제 또한 안고 있다. 등장 앞둔 GPT-5, 어떤 혁신 기다리나 오픈AI는 ‘GPT-5’가 곧 출시될 것을 언급했다. 오픈AI 최고운영책임자(COO)인 브래드 라이트캡은 파이낸셜타임스와 인터뷰
자체 완전 관리형 모델 실행 및 사용 사례에 가장 적합한 모델 쉽게 찾아 아마존웹서비스(이하 AWS)는 오늘 손쉽게 첨단 생성형 인공지능(AI) 애플리케이션과 경험을 개발하도록 지원하는 아마존 베드록의 신규 혁신 기능을 발표했다. AWS는 이미 수만 명의 고객이 자사 생성형 AI 전략의 기반으로 아마존 베드록을 선택했다고 밝혔다. 생성형 AI 애플리케이션을 신속하게 구축하고 배포하는 데 필요한 기능, 엔터프라이즈급 보안과 더불어 AI21랩스, 앤스로픽, 코히어, 메타, 미스트랄AI, 스태빌리티AI, 아마존 등에서 제공하는 주요 파운데이션 모델(FM)에 대한 광범위한 액세스를 제공하기 때문이다. 아마존 베드록에서 제공하는 모델을 완전 관리형 서비스로 제공하므로, 고객은 기본 인프라에 대한 고민 없이도 애플리케이션 운영에 있어 원활한 배포와 확장성, 지속적인 최적화를 확보한다. 이번 신규 기능을 통해 고객은 아마존 베드록에서 자체 완전 관리형 모델을 실행하고, 사용 사례에 가장 적합한 모델을 쉽게 찾고, 생성형 AI 애플리케이션에 더 쉽게 보호 기능을 적용하며, 더 많은 모델 선택권을 제공받게 됐다. AWS는 스타트업부터 보안에 가장 민감한 기업이나 정부 기관에
두 모델, 동급의 오픈소스 모델 중 최고 수준의 성능인 것으로 평가받아 메타가 다양한 목적으로 사용 가능한 최신 대규모 언어모델(LLM) ‘라마 3(Llama 3)’를 오픈소스로 공개했다. 메타의 차세대 대규모 언어모델 라마3는 사전훈련과 미세조정을 마친 80억 개(8B)와 700억 개(70B) 매개변수 모델 두 가지로 공개됐다. 이 두 모델은 현재 동급의 오픈소스 모델 중 최고 수준의 성능인 것으로 평가받는다. ‘대규모 다중작업 언어 이해(MMLU)’를 포함한 다양한 업계 표준 벤치마크에서 높은 성적을 받았으며 추론과 코드 생성, 지시 수행에 있어 전보다 성능이 크게 개선됐다. 라마3의 성능 향상은 모델의 사전 훈련과 사후 훈련 과정을 고도화함으로써 이뤄졌다. 사전 훈련을 위해 데이터셋의 양을 늘리고, 필터링 과정을 거쳐 고품질 데이터만을 선별했다. 라마3는 15조 이상의 토큰으로 훈련되었으며, 이는 라마2 대비 7배 이상 많으며 코드량은 4배 더 많다. 라마3의 사전 훈련에는 일상적인 질문부터 과학, 기술, 공학, 수학(STEM) 분야, 코딩, 역사 지식에 이르기까지 다양한 분야의 데이터셋이 사용되었다. 이를 통해 모델이 보다 여러 영역에서 활용될 수 있
머스크 "AGI를 가장 똑똑한 인간보다 더 똑똑한 AI로 정의한다면 2년 이내에 가능할 것" 세계적으로 인공지능(AI) 개발 열풍이 불고 있는 가운데 일론 머스크 테슬라 최고경영자(CEO)가 인간을 능가하는 AGI(범용인공지능)가 내년에 나올 수도 있다고 밝혀 관심을 끌고 있다. 머스크는 8일(현지시간) "AGI를 가장 똑똑한 인간보다 더 똑똑한 AI로 정의한다면 아마도 내년에, 예를 들어 2년 이내에 가능할 것"이라고 말했다. 자신의 사회관계망서비스(SNS) 엑스(X·옛 트위터)에서 진행한 노르웨이 국부펀드 CEO 니콜라이 탕겐과의 인터뷰에서다. 머스크는 '아마도(probably)', '생각한다(think)' 등의 표현을 사용하고 구체적인 증거 등에 대한 제시는 없었다. 그러나 머스크 역시 AI 스타트업 xAI를 통해 AI 모델을 개발하고 있다는 점에서 그의 발언은 주목된다. 특히 그의 전망은 "5년 이내에 인간과 같은 수준의 AGI가 등장할 것"이라는 AI 칩 선두 주자 엔비디아의 젠슨 황 CEO의 전망을 크게 앞서는 것이다. 젠슨 황 CEO는 작년 11월 뉴욕 링컨 센터에서 열린 뉴욕타임스(NYT) 주최 딜북 콘퍼런스에서 이같이 언급한 바 있다. 오픈A
견고했던 ‘매그니피센트 7’의 위상에 균열이 일어나고 있다. 세계 IT 기술을 좌우하는 7곳의 빅테크를 지칭하는 매그니피센트 7은 지난해 주가총액이 두 배 이상 상승하며, 그야말로 미국 증시 광풍을 이끌었다. 그러나 최근 빅테크 간 격차가 조금씩 벌어지고 있다. 그 차이를 야기한 것은 아이러니하게도 현재까지의 성장을 이끈 AI다. 생성형 AI 붐을 타고 몸값을 높여왔던 매그니피센트 7은 이제 AI에 대한 투자와 성과의 기로에서 새로운 국면을 맞았다. 상승세 끌어온 매그니피센트 7, 올해는? 매그니피센트 7은 미국 빅테크인 마이크로소프트(MS)와 애플, 엔비디아, 알파벳, 아마존, 메타, 테슬라 등 7개 기업을 의미하는 용어다. 이들은 미국 증시를 이끌며 연일 최고가 행진을 이어가고 있다. 지난 2월 기준 7개 기업의 전체 시가총액은 13조1000억 달러를 기록하며, G20 국가에서 시장 규모 2위인 중국(11조5000억 달러)을 추월했다. 이 같은 흐름은 올해에만 스탠더드 앤드 푸어스(S&P) 500지수를 16차례나 갱신할 정도로 파급력이 컸다. 지난해 생성형 AI가 시장에서 본격적인 확산 조짐을 보임에 따라, 매그니피센트 7은 AI라는 거대한 파도를
LG 콘텐츠·서비스, 플랫폼 역량과 메타 플랫폼·생태계 결합으로 인한 시너지 기대 LG전자가 XR 신사업 가속화를 위해 글로벌 빅테크 메타와의 전략적 협업을 본격화한다. 제품부터 콘텐츠·서비스, 플랫폼에 이르기까지 양사 역량을 결집해 미래 가상공간 영역의 고객경험 혁신을 주도한다. LG전자는 28일 서울 여의도 LG트윈타워에서 메타와 XR(확장현실) 신사업 파트너십 강화를 위한 전략적 논의를 진행했다. 회의는 마크 저커버그(Mark Zuckerberg) 메타 설립자 겸 CEO 아시아 시장 방문에 맞춰 전격 추진됐다. LG 권봉석 COO와 LG전자 조주완 CEO, 박형세 HE사업본부장 등이 참석했다. LG 권COO는 메타와 다른 LG 계열사 간 협력 가능성을 고려해 함께했다. 이날 회의에서는 양사의 차세대 XR 기기 개발과 관련된 사업 전략부터 구체적 사안에 이르기까지 심도 깊은 논의가 이뤄졌다. 조 CEO는 메타의 MR 헤드셋 ‘퀘스트3’와 스마트글라스 ‘레이밴 메타’를 직접 착용해 보는가 하면, 메타가 선보인 다양한 선행기술 시연을 관심 있게 살폈다. 특히 조 CEO는 메타의 LLM(대규모 언어모델) 기반 AI에도 큰 관심을 보이며 온디바이스 AI 관점에서