기업 AI 교육 및 AX(AI 전환) 파트너 에이블런이 강연 전문 문화기획사 캐스팅코드와 협력해 AI 시대 직장인의 역할 변화를 기록하는 웨비나 브랜드 ‘AIog(에이아이로그)’를 공식 런칭했다. 기술 활용을 넘어 윤리·저작권·책임 경계 등 실무 현장에서 제기되는 본질적 질문을 다루는 담론 플랫폼을 지향한다. AI 도입이 가속화되면서 생성형 AI 활용 교육은 빠르게 확산됐지만, 현장에서는 ‘AI에 어디까지 맡길 것인가’, ‘생성 결과물의 저작권은 누구에게 귀속되는가’, ‘의사결정 책임은 어디까지인가’ 등 제도적·윤리적 공백에 대한 문제 제기가 이어지고 있다. 특히 2026년 시행 예정인 AI 기본법을 앞두고 기업과 개인 모두가 숙지해야 할 법적 기준 정립의 필요성이 커지고 있다. AIog는 AI와 기록(Log)의 합성어로, 기술 변화 속에서 직장인이 마주하는 일하는 방식의 변화를 기록하는 지식 콘텐츠 브랜드다. 매달 마지막 주 목요일 정기 웨비나 형태로 운영되며, 첫 회차는 2월 26일 오후 2시 30분 ‘AI를 활용할 때 반드시 알아야 할 저작권 및 법적 쟁점’을 주제로 진행된다. 첫 강연은 두 개의 전문 세션으로 구성된다. 한양대학교 이상욱 교수가 ‘인간
한화비전이 인공지능 시스템의 책임 있는 운영을 위한 국제표준 ISO IEC 42001 인증을 획득했다고 밝혔다. 이번 인증으로 한화비전은 AI 경영시스템을 국제표준 요구사항에 따라 구축하고 운영하고 있음을 공식적으로 인정받았다. 이를 통해 보다 신뢰할 수 있는 AI 기반 영상보안 솔루션을 제공할 수 있는 기반을 확보했다. ISO IEC 42001은 국제표준화기구와 국제전기기술위원회가 제정한 AI 경영시스템 국제표준이다. AI 기반 제품과 서비스를 개발 제공 활용하는 조직이 AI 시스템을 책임감 있고 안전하게 운영하기 위한 관리체계와 요구사항을 수립하고 운영하도록 지원한다. 영상보안 업계에서는 AI 기술 확산과 함께 윤리적 책임을 강조하는 국제 인증의 중요성이 커지고 있다. 데이터 학습을 포함한 개발 단계부터 정보보호와 상용화 단계에 이르기까지 전 과정에서 윤리 기준을 높이고 안전성을 입증하는 것이 주요 과제로 떠오르고 있다. 한화비전은 AI 경영시스템 수립과 운영 유지 지속적 개선 등 주요 점검 영역에서 국제표준 요구사항을 충족해 이번 인증을 획득했다. 이를 통해 AI 운영체계가 국제 기준에 부합함을 공식적으로 인정받았으며 영상보안 시장에서 신뢰성과 투명성을
의료 인공지능(AI) 기업 루닛이 글로벌 의료AI 기업 가운데 최초로 세계경제포럼 연차총회, 이른바 다보스포럼에 4년 연속 참석하며 국제 무대에서 존재감을 이어가고 있다. 루닛은 19일부터 23일까지 스위스 다보스에서 열리는 제56회 세계경제포럼(World Economic Forum, WEF)에 참가했다고 20일 밝혔다. 올해 다보스포럼은 ‘대화의 정신(A Spirit of Dialogue)’을 주제로 약 130개국에서 3,000여 명의 글로벌 리더가 참석한 가운데 열렸다. 도널드 트럼프 미국 대통령, 에마뉘엘 마크롱 프랑스 대통령, 마크 카니 캐나다 총리 등 약 65명의 국가 정상을 포함해 400여 명의 각국 정치 지도자가 참여하며, 역대 가장 많은 정부 인사가 집결한 행사로 기록됐다. 이번 포럼에서는 인공지능을 비롯한 첨단 기술의 급격한 발전이 가져올 사회·경제적 변화와 함께, 기술의 책임 있는 활용이 핵심 의제로 다뤄지고 있다. 각국 정상과 산업계 리더들은 혁신 속도가 빨라질수록 신뢰성과 공공성을 담보하는 기술 활용 기준의 중요성이 커지고 있다는 데 공감대를 형성했다. 루닛은 2020년 세계경제포럼으로부터 ‘기술 선도 기업(Technology Pione
인공지능(AI) 챗봇 '그록'이 생성하는 성적인 딥페이크 이미지 문제로 인도네시아와 말레이시아 정부가 해당 서비스 접근을 차단하는 강경 조치에 나섰다. 인도네시아와 말레이시아 관리들은 엑스에이아이(xAI)의 챗봇 그록에 대한 접근을 일시적으로 차단한다고 밝혔다. 이는 사용자들이 소셜 네트워크 엑스(X)에서 요청하면 그록이 실제 여성과 미성년자를 묘사하거나 폭력성을 담은 성적인 AI 생성 이미지를 쏟아낸 데 대한 가장 공격적인 정부 차원의 대응이다. 엑스와 엑스에이아이는 같은 회사에 속해 있다. 메우탸 하피드(Meutya Hafid) 인도네시아 통신디지털부 장관은 가디언 등 복수 매체에 보낸 성명에서 "정부는 비동의 성적 딥페이크 관행을 디지털 공간에서 시민의 인권, 존엄성, 안보에 대한 심각한 침해로 간주한다"고 밝혔다. 인도네시아 통신디지털부는 이 문제를 논의하기 위해 엑스 관계자들을 소환한 것으로 알려졌다. 뉴욕타임스는 말레이시아 정부 역시 일요일 비슷한 금지 조치를 발표했다고 전했다. 지난 한 주간 각국 정부의 대응은 다양했다. 인도 IT부는 엑스에 그록이 음란물을 생성하지 못하도록 조치를 취하라고 명령했으며, 유럽연합 집행위원회는 엑스에 잠재적인 조사
바이브컴퍼니는 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 ‘공공 AX 프로젝트’의 자살예방분과 과제에 선정되어 협약을 체결했다고 밝혔다. 이번 과제는 국민의 생명을 보호하고 상담 현장의 효율성을 높이기 위한 공공 AI 실증사업으로, 총 29억 원 규모로 2년간 추진된다. 바이브컴퍼니는 전체 사업의 약 35%를 담당하며, ‘24시간 자살유발정보 모니터링 및 고위험군 조기 발굴 AI 솔루션’을 개발한다. 바이브컴퍼니는 이번 사업을 통해 온라인상에서 자살 유발 정보를 실시간으로 탐지하고, 위험 신호를 조기에 포착해 대응하는 사회안전망형 AI 에이전트를 구축한다. 이를 위해 ‘맥락 데이터(Contextual Data)’, ‘멀티모달(Multi-Modal)’, ‘멀티 에이전트(Multi-Agent)’ 세 가지 핵심 기술을 적용한다. ‘맥락 데이터’ 기술은 AI가 단순 키워드가 아닌 대화의 문맥과 의도를 분석해 위험 신호를 탐지하도록 설계된 기능이다. 또한 텍스트·이미지 등 다양한 형태의 데이터를 통합 분석하는 멀티모달 기술과, 기능별로 역할이 구분된 멀티 에이전트 구조를 결합해 위험 신호 탐지 정확도와 대응 효율성을 한층 강화했다. 김경서 바이브컴퍼니
국내 생성형 AI 스타트업 포티투마루(42Maru, 대표 김동환)가 인공지능(AI) 신뢰성 확보를 위한 공식 협의체 ‘AI 신뢰성 얼라이언스’ 발족식에 참여, 신뢰성 검증 및 인증 제도 발전 방향을 제시했다. 행사에는 과기정통부, AI안전연구소 등 유관 기관 주요 인사와 네이버, 카카오, SK텔레콤, KT 등 국내 주요 기업 관계자를 포함해 100여 명이 참석했다. 발족식에서는 각 분과 활동계획 발표, 산업계·학계·기관 인사의 축사에 이어 ‘인공지능 신뢰성 검·인증제도 발전방향’을 주제로 한 패널 토론이 이어졌다. 포티투마루 김동환 대표는 얼라이언스 운영위원이자 정책·거버넌스 분과위원으로 참여해 산업계 현장에서 체득한 경험을 공유하며 실질적인 AI 신뢰성 확보 방안을 제안했다. 그는 인증제도가 산업 진흥과 국민 신뢰 확보라는 두 가지 목표를 동시에 달성해야 한다고 강조하며, 자발적 인증 확산을 위한 제도적 지원과 실효성 있는 정책적 뒷받침의 필요성을 역설했다. 김동환 대표는 “AI 신뢰성은 단순한 기술 과제가 아닌 사회 전반에 걸쳐 AI가 안전하게 활용되기 위한 기본 토대”라며 “AI기본법 시행을 앞둔 지금이 제도적 기반을 확립할 적기”라고 강조했다. 이어
SK텔레콤이 자사 AI 서비스의 신뢰성과 안전성을 체계적으로 관리하기 위한 ‘AI 거버넌스 포털’을 공식 오픈했다. 이번 포털은 SKT가 자체 수립한 AI 거버넌스 원칙 ‘T.H.E. AI’를 기준으로 AI 서비스의 위험과 기회 요인을 분석하고, 위험 수준별 체크리스트 준수 여부를 진단하는 기능을 갖췄다. ‘T.H.E. AI’는 ▲by Telco(통신기술 기반의 연결과 신뢰) ▲for Humanity(인류 복지 증진과 다양성·포용) ▲with Ethics(결정 투명성과 윤리적 책임성 강조)를 의미한다. AI 거버넌스 포털은 사업팀의 자가진단과 거버넌스팀·Red Team의 검토·심의로 이원화된 프로세스를 통해 운영된다. 사업팀은 ‘T.H.E. AI’ 원칙을 기준으로 ▲신뢰성 ▲다양성과 포용 ▲결정 투명성 ▲윤리적 책임성 등 4개 영역, 60여 개 체크리스트로 자가진단을 진행한다. 이후 Red Team과 AI 거버넌스팀이 2차 진단을 수행해 기술적 결함, 저작권, 편향성 등 잠재적 위험 요인에 대한 심층 피드백과 개선 조치를 제시한다. 특히 Red Team은 사업팀 결과를 바탕으로 서비스 취약점을 분석하고 개선책을 요구하는 등 엄격한 평가를 수행한다. 이러한 진
같은 AI 기술을 기반으로 개발됐더라도, 사용자 경험은 전혀 다르다. 어떤 챗봇은 감정을 이해하며 대화를 이어가는 반면, 어떤 챗봇은 질문 의도를 제대로 파악하지 못한다. 이 같은 차이를 만들어내는 핵심 요인은 무엇일까? 산업 전문가들은 입을 모아 "결국 성능을 좌우하는 건 학습데이터의 질"이라고 말한다. AI가 세상을 이해하는 방식은 인간이 설계한 데이터로부터 출발한다. 최근 AI 업계는 단순히 많은 데이터를 확보하는 것에서 벗어나, 현실성과 정밀도가 높은 데이터 설계에 집중하고 있다. 특히 감정, 언어, 문화, 맥락 등 사람 중심의 복합 요소를 반영한 데이터가 AI 성능 향상에 핵심 역할을 한다는 인식이 확산되고 있다. 이런 흐름 속에서 판티마는 텍스트, 음성, 이미지 등 멀티모달 학습 데이터를 실제 사용 환경에 맞춰 설계하고, 고객 맞춤형으로 수집·가공·납품하는 전 과정을 직접 수행하고 있다. 최근에는 글로벌 게임사와 협력해 혐오 발언 및 감정 인식이 가능한 AI 모델 개발을 위한 다국어 음성 데이터셋을 구축 중이다. 이는 AI가 실제 환경에서 악성 행위를 얼마나 정확히 인지하고 대응할 수 있는지를 좌우하는 기반 기술이다. 판티마의 데이터 전략은 ‘1사
메타가 유럽연합(EU)의 범용 인공지능(AI) 모델 규제에 관한 실천 규약(Code of Practice)에 서명하지 않겠다는 입장을 밝혔다. 해당 규약은 내달부터 AI 법의 시행에 앞서 도입되는 가이드라인으로, 자율적 동참을 유도하는 성격이지만 글로벌 AI 기업들의 참여 여부가 규제 흐름에 중대한 영향을 미칠 것으로 예상된다. 조엘 카플란 메타 글로벌 정책 책임자는 18일(현지시간) 자신의 링크트인 게시글을 통해 “EU는 AI에 대해 잘못된 방향으로 가고 있다”며 “이번 규약은 개발자에게 법적 불확실성을 안기고, AI 법의 범위를 넘어서는 조항이 포함돼 있다”고 비판했다. 그는 “에어버스, ASML 등 유럽 기업들이 제기한 우려에 동의하며, 이번 규제가 첨단 AI 모델 개발을 위축시키고 기업 성장을 저해할 수 있다”고 덧붙였다. EU는 지난해 AI 기술의 안전성과 투명성을 강화하기 위한 AI 법을 통과시킨 바 있으며, 이를 기반으로 최근에는 범용 AI 모델 개발사를 대상으로 한 실천 규약 최종안을 발표했다. 이 규약은 AI 훈련 데이터의 출처 요약 공개와 저작권법 준수를 위한 내부 가이드라인 마련 등을 요구하고 있다. 이미 오픈AI와 프랑스 스타트업 미스트
'THE AI가 묻고 미래가 답하다' 출간 기념 및 AI민간특별위원회 특별 토론회 마련 인공지능(AI) 전문 매체 ‘THE AI’가 지난 1일 창간 5주년을 맞아 새 정부의 AI 정책 방향을 논의하는 특별 포럼과 출판기념회를 서울 중구 한국프레스센터에서 개최했다. 'THE AI'는 조선미디어그룹이 설립한 AI 전문 매체로, AI 기술의 발전과 산업별 적용 사례를 심층 보도하고 있다. AI 최신 동향과 기술 혁신, 각 분야에서의 실질적 적용 사례를 전달하며, AI 관련 정책과 법률 변화를 분석하는 데에도 집중하고 있다. 나아가 AI 시대에 필요한 전략적 방향을 제시하고, 산업과 사회 전반에 미치는 AI의 영향을 다룬다. 이외에도 글로벌 AI 컨퍼런스 'AWC(AI World Congress)', AI 전문 전시회 'THE AI Show' 등을 개최하며 AI 산업 생태계 확대에 나서고 있다. THE AI는 창간 5주년을 맞아 AI 관련 다양한 분야에서의 발전을 추구하는 한편, 앞으로도 지속적으로 전문가 의견을 수렴하며 AI 기술 발전과 정책적 논의에 기여할 계획이다. 김진형 AI 민간특별위원회 위원장은 환영사에서 “AI는 세상을 바꾸고 있지만, 여러 가지 약점과
공공 부문과 민간 산업 현장을 아우르는 구성으로 이뤄져 국제인공지능윤리협회(IAAE)가 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 ‘2025 ASC(AI Safety Compass) 컨퍼런스’를 개최한다. 이번 행사는 ‘변화하는 AI 환경에서의 기업 경쟁력 확보’를 주제로, 기술 혁신과 함께 AI 안전성과 윤리 문제를 중심에 둔 지속가능한 활용 전략을 논의하는 자리가 될 전망이다. AI 산업이 급속히 성장하는 가운데, 미국과 중국 등 주요국은 막대한 예산과 정책적 지원을 바탕으로 자국 중심의 AI 생태계를 강화하고 있다. 이에 맞서 국내 기업들도 AI 기술을 단순히 도입하는 것을 넘어, 안전하고 윤리적인 방식으로 운영해 글로벌 경쟁력을 높일 수 있는 기반 마련이 절실한 상황이다. 이번 컨퍼런스는 공공 부문과 민간 산업 현장을 아우르는 구성으로 이뤄진다. 공공 세션에서는 정부와 연구기관의 전문가들이 국가 차원의 AI 정책 방향과 차세대 기술 연구 동향을 제시한다. 과학기술정보통신부 공진호 인공지능기반정책과장은 국내 AI 정책 및 법제화 흐름을 공유하며, KISTI 이경하 초거대AI연구센터장은 AI 기술의 확장성과 안전성을 조화롭게 관리하는 연구 방향을
김동환 대표, 신뢰성·안전성·데이터 보호 체계를 핵심 키워드로 제시해 포티투마루가 30일 서울 용산구 한국소비자연맹 강당에서 열린 ‘AI소비자포럼 제2차 포럼’에 참여해 ‘AI 서비스의 현재’를 주제로 발표하고 소비자 관점에서의 AI 활용 환경에 대해 의견을 제시했다. AI소비자포럼은 올해 2월 출범한 민간 중심의 다중 이해관계자 협의체로, AI 기술 발전에 따른 소비자 권익 보호와 신뢰 기반의 서비스 이용 환경 조성을 목적으로 운영되고 있다. 과학기술정보통신부, 방송통신위원회, 국가AI위원회, 개인정보보호위원회를 비롯해 네이버, 카카오, SK텔레콤, AWS, MS, 메타, 구글 등 주요 기업과 정보통신정책연구원(KISDI), 한국소비자연맹 등 소비자단체가 참여하고 있다. 이번 제2차 포럼은 ‘AI 기술의 현재’와 ‘AI 서비스의 현재’를 두 축으로 삼아, 기술 발전과 실제 서비스 현장의 간극을 조망하고 소비자 대응 방안을 모색하는 데 초점을 맞췄다. 포티투마루 김동환 대표는 발제를 통해 초거대 언어모델(LLM) 기반 서비스의 진화 과정과 현실 적용 사례, 특히 기업 환경과 일반 소비자들이 직면하고 있는 AI 에이전트 기술의 활용 현황을 소개했다. 이어 향
美·日 보안 전문가 "랜섬웨어 소스코드 등 민감 정보 손쉽게 얻어" 딥시크가 개발한 생성형 AI 모델이 범죄에 악용될 수 있는 정보를 제한 없이 제공해 논란이 일고 있다. 일본 요미우리신문은 6일, 일본과 미국 보안 전문가들이 딥시크의 AI 모델 'R1'을 대상으로 실험한 결과, 랜섬웨어 소스코드와 화염병 제조법 같은 민감 정보를 손쉽게 얻을 수 있었다고 보도했다. 실험을 주도한 미쓰이물산 시큐어디렉션의 요시카와 다카시는 지난 1월 출시된 딥시크의 R1 모델에 특정 지시문을 입력했더니, 실제 사용할 수 있는 수준의 랜섬웨어 소스코드를 제공했다고 밝혔다. 다만, 해당 응답에는 “악의적 목적에 사용하지 말라”는 형식적 경고 문구가 덧붙여졌을 뿐이었다. 요시카와는 같은 문장을 오픈AI의 챗GPT 등 다른 주요 모델에 입력했을 때는 응답 자체를 거부했다고 강조했다. 미국 사이버 보안기업 팔로알토네트웍스 조사팀도 R1을 대상으로 실험을 진행한 결과, 로그인 입력값을 탈취하는 악성 프로그램부터 화염병 제조법까지 현실적으로 실행 가능한 수준의 답변을 얻었다고 밝혔다. 조사팀은 “지시문은 전문 지식이 없어도 누구나 입력할 수 있는 수준이었고, 제공된 정보는 그대로 실행 가
지난 22일, 서울 여의도에서 AI를 주제로 한 특별한 대담이 열렸다. 더불어민주당 이재명 대표와 세계적 베스트셀러 ‘사피엔스’의 저자 유발 하라리 작가가 ‘AI 시대의 인간과 정치’를 주제로 머리를 맞댔다. ‘이재명N하라리: AI 시대를 말하다’라는 제목으로 열린 이번 대담은 단순한 기술적인 담론을 넘어 AI라는 전환점을 맞아 인간과 사회가 어떤 방향을 택해야 하는지에 대한 근본적인 질문을 던지는 자리였다. 이날 대담에서는 노동시장과 일자리, 민주주의와 알고리즘, 국제 질서와 AI 윤리 등 다양한 의제가 논의됐다. 이재명 대표는 정치인으로서 현실적 고민과 정책 구상을 제시했고 유발 하라리는 역사학자이자 철학자의 시선으로 인류의 미래에 대한 통찰을 더했다. 정치와 학문, 정책과 철학이 만난 이번 대담은 AI의 기능과 활용을 넘어 인간 사회가 기술과 어떻게 공존해야 할지를 함께 고민했다는 점에서 큰 의미를 가질 것으로 평가된다. AI가 바꾸는 노동과 불평등…결국 공공의 역할이 중요 이재명 더불어민주당 대표는 대담의 서두에서 “AI는 노동 생산성을 극대화함과 동시에 인간의 역할을 줄일 수 있다”며 우려를 표했다. 과거 산업혁명 시기에는 새로운 기술이 새로운 일자
전문가들, 오픈AI 사태에 "생성형 AI 포함한 AI 규제 주도해야 하는 이유" 오픈AI의 샘 올트먼 최고경영자(CEO) 해임 드라마가 6일 만에 올트먼의 CEO 복귀로 마무리됐지만, 이번 사태로 AI 업계 지배구조 등의 취약성이 드러났다는 평가가 나온다. 특히 오픈AI 같은 기업이 AI의 안전 문제를 자율 규제로 풀 수 있다는 낙관적 시각이 위태로워지면서 각국 정부가 AI 규제를 주도해야 한다는 여론에 힘이 실릴 것으로 보인다. 오픈AI는 22일(현지시간) 올트먼의 CEO 복귀와 그를 내쫓았던 이사회 일부 재구성에 합의했다고 발표했다. 이 회사 지분 49%를 가진 마이크로소프트(MS)의 지원으로 올트먼이 돌아오고 브렛 테일러 전 세일즈포스 공동 CEO와 래리 서머스 전 미 재무부 장관이 이사진에 가세, 이번 사태는 사실상 MS의 승리로 끝났다. 미 정보기술(IT) 전문매체 와이어드에 따르면, 그간 올트먼은 비영리 법인 산하에 영리사업 부문이 소속돼 있는 오픈AI의 특이한 기업 구조가 강력한 AI의 무책임한 개발을 막는 방화벽이라고 설명해왔다. 만약 오픈AI의 이사회가 보기에 올트먼 자신이 위험하거나 인류의 이해관계와 상반되는 행동을 할 경우 자신을 쫓아낼