[파이낸셜뉴스] 최근 정보기술(IT) 업계에서 일반인을 시민 개발자(citizen developer)로 만들어주는 기술이 잇따라 나오고 있다. 코딩을 배우지 않은 사람이 앱을 만들수 있게 돕는 서비스도 그 중 하나다. 최근 소프트웨어 기술 기업 티맥스에이앤씨(ANC)가 '가이아(GAIA)'를 출시한 것도 이런 이유에서다. 가이아 앱 개발을 총괄한 김용태 티맥스ANC 최고기술책임자(CTO· 사진)는 3일 파이낸셜뉴스와 만나 "다양한 산업분야에서 IT에 대한 요구가 더욱 다양해지고 개발 산출물에 대해서도 신속함과 비용 효율성이 중요해지고 있다"며 "IT개발 인력의 부족과 이에 대한 대안으로 소프트웨어 개발 생태계를 노코드 방식의 클라우드 네이티브, AI 네이티브 앱으로 전환하고자 가이아를 개발하게 됐다"고 말했다. 가이아는 티맥스ANC가 지난달 공식 출시한 인공지능(AI)·노코드·클라우드 통합 플랫폼이다. 가이아는 AI와 노코드, 클라우드 기술을 하나로 통합돼 있어개발 지식 없이도 누구나 쉽고 빠르게 앱을 만들 수 있다. 김 CTO는 "가이아는 단순히 코딩을 최소화한 노코드 개발 방법론을 적용한 개발툴이 아니라 앱의 구동방식을 클라우드화하고 AI와 자동적으로 연계되게 하는 기술을 배경으로 하고 있다"며 "다른 서비스들은 단순히 눈에 보이는 것들만(프론트엔드) 노코드로 구성할 수 있는 경우가 대부분이고, 백엔드의 경우는 고급 기술이나 로직을 적용하기 어려운 경우가 많다"고 설명했다. 특히 가이아의 핵심 기능 중 한축이라고 할 수 있는 AI 기능은 실개발 이전에 상당히 오랜 기간 기반 연구를 진행했다. 이를 위해 대규모 인력도 투입됐다. 김 CTO는 "이러한 기반 기술을 실제로 가이아 제품내에 녹여내는 과정중에서 생성형AI의 예상치 못했던 잠재력을 여러차례 실감하게 됐다"며 "이를 통해 기존의 기획안 이상의 제품 기능을 갖추게 됐다"고 말했다. 백엔드의 설계를 돕는 기능과 FX 스튜디오(프론트엔드를 만들어주는 앱)를 AI를 통해서 활용함으로써 기존의 경험들을 뛰어넘는 성능을 보게 됐다는 것이다. 그는 "이는 가이아를 만드는 입장에서도 매일이 놀라움의 연속이었다"고 말했다. 컴퓨터공학을 전공한 그는 금융, IT분야에서 재무, 계리 리스크와 금융 시스템 설계를 해왔다. 이후 알고리즘 트레이딩 시스템 개발사를 창업해 운영한 바 있다. 가이아 역시 이 같은 그의 기술과 개발 노하우가 반영돼 만들어졌다. 가이아는 티맥스ANC가 지난해 티맥스소프트, 티맥스티베로와 결별하고 내놓은 첫 번째 결실이기도 하다. 이 같은 기술 경쟁력을 바탕으로 앞으로 투자에도 적극 나선다는 계획이다. 김 CTO는 "티맥스ANC그룹을 포함한 전계열사는 외부 투자자의 지분이 거의 없다고 할 수 있을 정도로 자체 자본을 통해서 성장한 회사"라며 "제품 개발 막바지에 다다른 현 시점에서는 좀더 빠른 완성 이후 시장 개척을 위해서 지분 투자나 차입, 더 나아가 해외 상장 등 다양한 자본 조달 방식에 대해서 열려 있는 상태"라고 말했다. 가이아 역시 1조원 이상의 투자와 약 30년간 축적한 독자적인 기술력을 바탕으로 완성됐다. 그는 "가이아의 탄생은 대한민국이지만 시장은 전세계를 대상으로 하고 있다"며 "아직은 베타버전이지만 이후 꾸준한 업데이트를 통해 더욱 완성도 높은 가이아로 서비스하고자 한다"고 포부를 전했다. jiany@fnnews.com 연지안 기자
2025-07-03 13:04:30[파이낸셜뉴스] 바이텍정보통신이 오토메이션애니웨어코리아와 손잡고 로봇 프로세스 자동화(RPA) 시민개발자·전문가 교육에 나선다. 바이텍정보통신은 오토메이션애니웨어코리아와 교육 파트너 협약을 체결하고 국내 최초로 '오토메이션애니웨어 오토메이션 360' 교육과정을 제공한다고 13일 밝혔다. 바이텍정보통신의 교육센터에서 제공하는 '오토메이션애니웨어' 교육과정은 IT 개발자 및 실무자가 '오토메이션 360' 구성과 운영을 위한 필수 지식과 '오토메이션 360'을 이용한 업무 자동화 구현의 이론과 실습이 포함된 실무 교육으로, 오토메이션애니웨어의 검증된 공인 강사가 강의형으로 제공한다. 이 교육을 통해 '오토메이션애니웨어 인증 고급 RPA 전문가' 자격 취득을 대비할 수 있다. 임현철 바이텍정보통신 대표는 "바이텍정보통신이 오토메이션애니웨어 기술 전문 파트너십 체결 이후 시민개발자 전문교육 프로그램 준비를 마치고 런칭할 수 있게 되어 오토메이션 360 컨설팅, 구축과 기술지원 외에도 교육까지 한 번에 제공할 수 있게 됐다"며 "앞으로 '오토메이션 360' 교육을 희망하는 고객과 사용자 저변을 확대할 수 있게 되어 기대가 크다"고 말했다. 오토메이션애니웨어는 미국에 본사를 둔 지능형 디지털 워크포스 플랫폼 분야의 글로벌 선두 기업이다. 오토메이션애니웨어는 최근 하이퍼오토메이션을 통한 업무 혁신 및 클라우드 확산 등에 능동적으로 대처하기 위해 RPA 최신 플랫폼인 '오토메이션 360'을 출시했다. 이에 발맞춰 전문 개발자들이 사용하는 프로코드 뿐만 아니라 로우코드, 노코드를 사용하는 RPA 시민 개발자를 양성하기 위한 다양한 교육 과정을 제공키로 했다. 오토메이션애니웨어코리아와 계약을 체결한 바이텍정보통신은 25년간 IT사업을 운영해 온 전문업체로, 고객사의 디지털 전환을 돕는 RPA 기반의 자동화 구축·컨설팅 사업을 진행하고 있다. RPA뿐만 아니라 오라클 데이터베이스, 클라우드, 무중단 데이터 마이그레이션, 전력 IT 등 인프라 솔루션에 대한 전문 경험을 바탕으로 관련 솔루션 도입 컨설팅, 시스템 구축 및 운영 서비스를 제공 중이다. 바이텍정보통신은 바이텍씨스템, 바이텍테크놀로지 등 다수의 관계사를 보유하고 있다. 한편, 바이텍정보통신은 오토메이션애니웨어의 오토메이션 360을 활용하여 현대오일뱅크, 삼성바이오에피스 등 다양한 고객사에 서비스 컨설팅과 구축을 진행해 성공적으로 프로젝트를 마쳤다. monarch@fnnews.com 김만기 기자
2022-01-13 16:33:03[파이낸셜뉴스] 농심켈로그는 올해부터 로봇 프로세스 자동화 시스템인 RPA(Robotic Process Automation)를 직원들이 스스로 개발, 유지, 개선할 수 있도록 사내 시민 개발자 발굴 및 육성에 본격적으로 나선다고 16일 밝혔다. 코로나로 인한 비대면 업무 환경 속에서 RPA의 필요성이 더욱 높아져 이를 선제적으로 대응하기 위해 기획됐다. 농심켈로그는 이번 프로그램에 참가하는 임직원들을 대상으로 마이크로소프트 AI솔루션 및 RPA 전문 컨설턴트가 체계적이고 전문화된 RPA 교육을 제공할 계획이다. 지원자들은 지난 15일에 실시한 1차 기본 교육 세션을 시작으로, 소규모 그룹을 중심으로 6주 동안 직원들 개개인의 눈높이에 맞춘 추가 실습 교육을 받고, 그 후 개별 사례 발표까지 장기 교육 과정을 거치게 된다. 이번 프로젝트를 기획한 농심켈로그 IT팀 신재용 이사는 "MS의 '로우 코드 솔루션'을 직원들이 자유롭게 활용할 수 있는 역량을 개발시키고 이들이 직접 RPA를 만들 수 있다면 더욱 효과적일 것이라고 판단, 사내 시민 개발자를 발굴해 육성하기로 했다"고 전했다. nvcess@fnnews.com 이정은 기자
2021-09-16 16:17:59최근 정보기술(IT) 업계에서 일반인을 시민 개발자(citizen developer)로 만들어주는 기술이 잇따라 나오고 있다. 코딩을 배우지 않은 사람이 앱을 만들 수 있게 돕는 서비스도 그중 하나다. 최근 소프트웨어 기술 기업 티맥스에이앤씨(ANC)가 '가이아(GAIA)'를 출시한 것도 이런 이유에서다. 가이아 앱 개발을 총괄한 김용태 티맥스ANC 최고기술책임자(CTO·사진)는 3일 "다양한 산업분야에서 IT에 대한 요구가 더욱 다양해지고 개발 산출물에 대해서도 신속함과 비용 효율성이 중요해지고 있다"며 "IT개발 인력의 부족과 이에 대한 대안으로 소프트웨어 개발 생태계를 노코드 방식의 클라우드 네이티브, AI 네이티브 앱으로 전환하고자 가이아를 개발하게 됐다"고 말했다. 가이아는 티맥스ANC가 지난달 공식 출시한 인공지능(AI)·노코드·클라우드 통합 플랫폼이다. 가이아는 AI와 노코드, 클라우드 기술이 하나로 통합돼 있어 개발지식 없이도 누구나 쉽고 빠르게 앱을 만들 수 있다. 김 CTO는 "가이아는 단순히 코딩을 최소화한 노코드 개발 방법론을 적용한 개발툴이 아니라 앱의 구동방식을 클라우드화하고 AI와 자동적으로 연계되게 하는 기술을 배경으로 하고 있다"며 "다른 서비스들은 단순히 눈에 보이는 것들만(프론트엔드) 노코드로 구성할 수 있는 경우가 대부분이고, 백엔드의 경우는 고급 기술이나 로직을 적용하기 어려운 경우가 많다"고 설명했다. 특히 가이아의 핵심 기능 중 한 축이라고 할 수 있는 AI 기능은 실개발 이전에 상당히 오랜 기간 기반 연구를 진행했다. 이를 위해 대규모 인력도 투입됐다. 김 CTO는 "이러한 기반 기술을 실제로 가이아 제품 내에 녹여내는 과정에서 생성형AI의 예상치 못했던 잠재력을 여러 차례 실감하게 됐다"며 "이를 통해 기존의 기획안 이상의 제품 기능을 갖추게 됐다"고 말했다. 백엔드의 설계를 돕는 기능과 FX 스튜디오(프론트엔드를 만들어주는 앱)를 AI를 통해서 활용함으로써 기존의 경험들을 뛰어넘는 성능을 보게 됐다는 것이다. 그는 "이는 가이아를 만드는 입장에서도 매일이 놀라움의 연속이었다"고 말했다. 컴퓨터공학을 전공한 그는 금융, IT분야에서 재무, 계리 리스크와 금융 시스템 설계를 해왔다. 이후 알고리즘 트레이딩 시스템 개발사를 창업해 운영한 바 있다. 가이아 역시 이 같은 그의 기술과 개발 노하우가 반영돼 만들어졌다. 가이아는 티맥스ANC가 지난해 티맥스소프트, 티맥스티베로와 결별하고 내놓은 첫번째 결실이기도 하다. 이 같은 기술 경쟁력을 바탕으로 앞으로 투자에도 적극 나설 계획이다. 김 CTO는 "티맥스ANC그룹을 포함한 전 계열사는 외부 투자자의 지분이 거의 없다고 할 수 있을 정도로 자체 자본을 통해서 성장한 회사"라며 "제품 개발 막바지에 다다른 현시점에서는 좀 더 빠른 완성 이후 시장개척을 위해서 지분 투자나 차입, 더 나아가 해외 상장 등 다양한 자본조달 방식에 대해서 열려 있는 상태"라고 말했다. 가이아 역시 1조원 이상의 투자와 약 30년간 축적한 독자적인 기술력을 바탕으로 완성됐다. 그는 "아직은 베타버전이지만 이후 꾸준한 업데이트를 통해 더욱 완성도 높은 가이아로 서비스하고자 한다"고 포부를 전했다. jiany@fnnews.com 연지안 기자
2025-07-03 18:19:28【파이낸셜뉴스 광양=황태종 기자】포스코 광양제철소가 임직원들을 대상으로 RPA(Robotic Process Automation, 사무자동화) 교육을 실시하며 업무 효율성 향상과 디지털 혁신 역량 강화에 박차를 가했다. 12일 광양제철소에 따르면 RPA는 사람이 반복적으로 수행하는 규칙 기반의 업무를 소프트웨어 봇이 자동으로 처리하도록 하는 기술로, 이번 교육은 최근 급변하는 산업 환경과 디지털 전환 트렌드에 발맞출 수 있도록 포항제철소와 함께 실시했다. 지난 10일부터 11일까지 2일간 백운아트홀에서 열린 교육에는 제선·제강·압연과 같은 현장 엔지니어부터 사무 스텝부서 직원까지 참여해 직접 업무 자동화 솔루션을 개발하고 적용할 수 있는 능력을 길렀다. 특히 이번 교육은 최소한의 코딩만을 사용하는 로우코드를 활용해 진행된 만큼 프로그래밍에 대한 전문 지식이 없더라도 실무 담당자가 앱을 손쉽게 개발할 수 있어 직원들로부터 큰 관심을 모았다. 교육에 참여한 정주영 광양제철소 사원은 "코딩이라는 게 전공이 아니다 보니 특별한 기술이나 지식이 있어야만 가능할 것이라는 편견을 가지고 있었는데 이번 교육을 통해 나도 할 수 있다는 것을 알게 됐다"면서 "단순 반복 업무에 꽤 많은 업무 시간이 할애되는데 이번 교육을 기회 삼아 이를 효율적으로 변화시키고 싶다"라고 전했다. 이번 교육에선 안전에 대한 사회적 요구와 그 중요성이 높아지고 있는 상황에서 작업 현황 모니터링을 활용해 안전 조치 시간을 산정하는 RPA 실습도 진행돼 참가자들로부터 큰 호응을 얻었다. 교육을 담당한 임두호 포스코DX 프로는 "로우코드 기반 교육은 직원분들이 직접 RPA 솔루션을 개발하고 적용해 볼 수 있도록 돕는 만큼 현업의 디지털 혁신이 한층 가속화될 것으로 기대한다"면서 "앞으로도 다양한 디지털 역량 강화 프로그램을 적극 운영해 스마트 팩토리 구현에 기여하겠다"라고 말했다. 한편 광양제철소는 이번 교육을 계기로 본인의 업무 프로세스를 스스로 분석·점검하고 자동화할 수 있는 시민 개발자 양성에 본격적으로 나설 계획이다. 또 인공지능(AI), 빅데이터, IoT(사물인터넷) 등 첨단 기술을 현장에 접목하는 등 디지털 전환 전략을 지속적으로 추진해 글로벌 철강 산업을 선도하는 스마트 팩토리로 거듭날 방침이다. hwangtae@fnnews.com 황태종 기자
2025-06-12 12:35:49[파이낸셜뉴스] 부산시 낙동강관리본부의 ‘꼬리명주나비 복원체험 프로그램’이 환경부 지정 국가환경교육센터의 2025년 1회차 우수 환경교육프로그램으로 재 지정됐다. 30일 부산시 낙동강관리본부에 따르면 이 프로그램은 2017년부터 운영해 온 대표 생태교육 프로그램으로, 2022년 7월 처음 우수 환경교육프로그램으로 지정돼 지금까지 누적 참여 인원이 약 450명에 이른다. 이번 우수환경프로그램 재지정은 책임 개발자와 실무자의 전문성, 참여자 안전 확보, 체계적인 평가 방안, 교육 내용의 완성도 등 여러 항목에서 높은 평가를 받은 결과로 풀이된다. 이로써 본부는 ‘낙동강하구 청소년지킴이 프로그램’에 이어 총 2개의 환경부 우수 환경교육프로그램을 운영하게 됐다. ‘꼬리명주나비 복원체험 프로그램’은 참가자가 꼬리명주나비 복원의 전 과정을 직접 체험할 수 있도록 4회차 시리즈형으로 구성돼, 생물자원 보호와 서식지 복원의 중요성을 실천적으로 배우는 기회를 제공해 참여자들의 높은 호응을 얻고 있다. 프로그램은 이론과 실습이 병행되는 체험중심 프로그램으로 낙동강하구에코센터의 곤충 전문가가 직접 진행한다. 초등학생 이상 가족을 대상으로 연 1회 운영하며, 올해 5월부터 6월까지 총 18팀 49명이 참여하고 있다. 1회차에는 ‘꼬리명주나비 복원사업’의 추진 배경과 의의에 대한 설명을 들은 후, 가족별로 복원 구조물을 배정받고, 쥐방울덩굴을 직접 식재한다. 2회차에는 복원지를 방문해 꼬리명주나비의 먹이식물인 쥐방울덩굴의 생육 상태를 확인하고 관리 일지를 작성한다. 3회차에는 배부된 키트를 활용해 애벌레를 사육하며, 4회차에는 성충이 된 꼬리명주나비를 복원지에 방사하고, 비행·교미·산란 등 생태 행동을 관찰한다. 본부는 프로그램이 진행되는 2달간 네이버 밴드를 개설해 참가자와 강사진이 지속해서 소통하며 좋은 결과를 가질 수 있도록 노력하고 있다. 또한 우수 참가자에게는 부산시장상을 수여할 예정이다. 김경희 시 낙동강관리본부장은 “앞으로도 낙동강 하구의 우수한 생태자원을 체계적으로 보전하고 관리할 것”이라며, “우수 환경교육 프로그램을 비롯해 다양한 생태체험 기회를 지속해서 제공해 시민들이 자연의 소중함을 깊이 느낄 수 있도록 노력하겠다”고 전했다. paksunbi@fnnews.com 박재관 기자
2025-05-30 12:27:21국내의 한 시민단체가 애플이 인공지능(AI) 기능에 대한 허위·과장 광고를 했다며 공정거래위원회에 조사를 요청했다. 미국에서도 애플 AI 광고를 둘러싼 소송이 제기돼 이를 둘러싼 법적 공방이 전 세계로 확산될 조짐이다. ■애플, 표시광고법 위반 혐의로 신고 당해 서울YMCA는 표시광고법 위반 혐의로 애플에 대한 조사를 요청하는 신고서를 공정위에 제출했다고 지난 24일 밝혔다. 앞서 이 단체는 지난 13일 애플이 보상 대책을 마련하지 않을 경우 검찰 고발 등을 검토할 계획이라고 했으나 애플의 반응이 없자 행동에 나선 것이다. 표시광고법상 부당한 표시·광고 행위를 한 자는 2년 이하의 징역 또는 1억5000만원 이하의 벌금에 처할 수 있다. 또한 양벌규정이 있어 법인에도 벌금형을 과할 수 있다. 애플은 지난해 6월 연례 세계 개발자 회의(WWDC)에서 더 개인화된 AI 시리 기능 등을 포함한 AI 시스템 '애플 인텔리전스'를 발표했다. 발표대로라면 iOS 18 버전에 적용됐어야 하는 애플 인텔리전스 AI 시리 기능이 내년 이후로 연기됐고, 애플은 유튜브에서 해당 기능의 광고를 삭제했다. 서울 YMCA는 "애플은 ‘아이폰16 시리즈’를 판매하면서 사실상 실현이 불투명한 ‘애플 인텔리전스’ 기능을 특장점으로 전면에 내세워 소비자가 ‘아이폰16 시리즈’의 구매를 결정하는데 큰 영향을 끼치고 있다"며 "이와 같이 소비자의 제품 선택에 영향을 미치는 중요한 사실을 거짓으로 표시해 소비자에게 중대한 재산상의 손해를 입힌 것"이라고 지적했다. 그러면서 "우리는 조사 과정과 결과를 면밀히 살피고 이에 따른 후속 대응을 이어갈 것"이라며 "표시광고법을 위반해 소비자에게 피해를 입히는 사업자에 대한 모니터링을 지속할 계획"이라고 강조했다. ■공정위 "원칙 따라 처리".. 미국서도 소송 공정위는 신고서 내용을 살펴보고 요건이 되면 원칙과 절차에 따라 이번 사안을 처리한다는 입장이다. 다만 그동안 처리하지 못한 사안들도 많아 연내에는 관련 조치가 쉽지 않을 전망이다. 공정위 관계자는 “신고 사건의 경우 보통 각 지방 담당 사무소에서 처리하도록 규정돼 있다”며 “요건이 되면 신고를 접수한 뒤 애플 측에 자료 제출을 요구해 허위·과장 광고 여부를 판단하게 될 것“이라고 말했다. 이어 “혐의가 있으면 위원회에 상정을 해서 심의를 거쳐 조치를 취하게 될 것”이라며 “다만 다른 사안들도 밀려 있다 보니 몇 달 안에 조치가 이뤄지지는 않을 것”이라고 덧붙였다. 애플 AI 기능을 둘러싼 법적 공방은 우리나라만의 얘기가 아니다. 미국에서도 클락슨로펌이 아이폰 16 등을 구매한 사람들을 대리해 애플 인텔리전스 기능에 대한 애플의 광고가 허위 광고와 불공정 경쟁에 해당한다며 지난 19일 산 호세 지방 법원에 피해 보상을 청구하는 소송을 제기했다. 원고 측은 “피고의 AI 기능과 관련된 주장과 달리 제품은 크게 제한되거나 아예 없는 기능의 애플 인텔리전스를 제공해 소비자들에게 실질적 유용성과 성능을 오도했다”며 “더 나쁜 것은 피고측은 과장된 AI 기능을 기반으로 제품을 홍보했다는 점”이라고 언급했다. solidkjy@fnnews.com 구자윤 기자
2025-03-24 14:16:25[파이낸셜뉴스] 애플이 아이폰16에 탑재될 인공지능(AI) 기능 출시 일정을 연기하자 국내 시민단체가 "허위·과장 광고를 했다"며 법적조치를 검토한다고 밝혔다. 서울YMCA 시민중계실은 지난 13일 '아이폰16 시리즈 구매한 소비자 속았다'는 논평을 발표하고, 애플이 AI 음성비서 시리(Siri)의 개인화 기능을 향상시킨 '애플 인텔리전스 시리' 출시를 연기한 데 대한 보상 대책을 요구했다. 애플은 최근 성명을 통해 '시리' 업그레이드가 내년으로 미뤄질 것으로 예상한다고 밝혔다. 이후 지난해 9월부터 광고한 애플 인텔리전스 관련 광고 영상을 공식 유튜브에서 내리기도 했다. 서울 YMCA는 "애플이 지난해 6월 WWDC(연례세계개발자회의)를 통해 발표한 내용은 '애플 인텔리전스'로, 온디바이스 AI 시리 기능 등이었다"며 "애플은 이를 연기하면서도 해당 기능을 강조해 공식 유튜브 등의 광고로 아이폰16 시리즈와 아이폰16e를 판매해 왔다"고 했다. 이어 "그런데 최근 해당 기능의 출시가 내년 이후로 연기될 것임이 밝혀지고 애플이 공식 유튜브에서 애플 인텔리전스 광고를 삭제하는 일이 벌어졌다"면서 "애플은 광고를 삭제하기 전 '해당 기능이 제 때에 출시될 수 없다'는 사실을 알았음에도 이를 고의로 숨기고 아이폰을 판매했을 가능성이 높다"고 주장했다. 서울 YMCA는 "아이폰16e의 경우 국내 가격이 해외에 비해 상대적으로 비싸다는 논란에도 AI 기능을 기대하며 가격을 감수하고 구매한 소비자가 많았을 것"이라며 "애플은 적절한 보상 대책을 내놔야 한다"고 촉구했다. 그러면서 "애플 인텔리전스 광고와 이를 통한 아이폰 판매는 허위·과장 광고로 이익을 편취한 것이나 다름없다"라며 "적절한 보상이 이루어지지 않는다면, 서울YMCA 시민중계실은 '표시·광고의 공정화에 관한 법률' 위반에 대한 공정위 조사 요청 및 검찰 고발 촉구 등을 검토할 계획"이라고 전했다. moon@fnnews.com 문영진 기자
2025-03-14 08:20:40"인공지능(AI) 안전성이란 결국 신뢰입니다. AI가 최근 산업과 사회 전 분야에서 성능을 발휘하고 있지만, 문제는 아직은 '너무 뛰어나지만 신뢰할 수 없는' 기술이라는 점입니다. 신뢰받지 못하는 AI 기술은 언젠간 무너집니다. 안전성이 중요한 이유입니다." 김명주 AI안전연구소 소장이 18일 파이낸셜뉴스와 인터뷰에서 이같이 밝혔다. AI 기술이 급속도로 발전해도 안전성과 신뢰성이 확보되지 않으면 결국 곳곳에서 문제가 발생하며, AI 산업 전반에도 부정적인 영향을 미칠 것이라는 의미다. 지난해 11월 설립된 AI안전연구소는 고도화된 AI 위험, AI 윤리 문제 등에 대응하기 위해 출범했다. 더 구체적으로는 안전하고 신뢰할 수 있는 AI의 개발과 활용 환경을 조성하고 국내 AI 기업의 경쟁력 확보 및 글로벌 진출을 지원하는 것이 목표다. 초대 소장인 김명주 서울여대 정보보호학부 교수는 컴퓨터공학을 전공한 AI윤리·신뢰성 전문가로 경제협력개발기구(OECD) 글로벌 AI 파트너십(GPAI)의 엑스퍼트 멤버로 활동하며, 지속가능한 AI발전을 위한 국제사회 논의에도 활발히 참여하고 있다. 다음은 김 소장과의 일문일답. ―AI 안전연구소가 지난해 11월 출범했다. 어떤 역할을 맡나.▲정식 명칭은 'AI안전원'(AI Safety Institute)이다. 원자력안전원처럼 AI의 정책과 안전을 관리한다. 캐치프레이즈도 '안전한AI로 만드는 지속가능한 미래'다. 안전과 반대되는 말은 위험이다. AI의 위험을 바라보는 시각은 다 다르다. 기술적인 위험만 보는 전문가도 있고, 일반 시민은 AI가 실직을 유발한다거나 딥페이크 문제로 불안해하기도 한다. 이런 고민들이 심해지면 그게 위험이 되는 거다. 나는 'AI 잠재 위험 지도(potential risk map)'를 만들 필요가 있다고 생각한다. AI가 사회에 미치는 영향을 분석하고, 정치·사회·문화·노동·환경 등의 부정적 영향을 체계적으로 정리해 해결책을 마련해야 한다. 리스크는 계속 변하겠지만, 이런 잠정적인 맵을 만들어 놓고 계속 업그레이드해야 한다. AI 위험요소는 국가마다 다를 수 있다. 국제협력을 통해 공통된 문제를 정리하고, 우선순위를 세워 해결해 나가야 한다고 생각한다. ―정부는 AI 3대 강국(AI G3)을 목표로 설정했다. 천문학적 자금이 투입되는 '별들의 전쟁'에서 한국이 경쟁력을 확보하려면.▲우리가 '규모의 경제'에서 밀리는 것은 맞다. 대형언어모델(LLM) 등의 파운데이션 모델을 포기하고 차별화 전략으로 가자는 말도 일리 있다. 그럼에도 우리만의 AI 경쟁력을 갖추려면 '파운데이션 모델'은 반드시 보유해야 한다. 우리가 AI 기술을 글로벌 시장에 수출하려면 최소한의 기반 모델이 필요하다. 미국이나 중국과 일대일 경쟁을 하기는 어렵지만 중동, 아시아, 아프리카 등 '제3 시장'에서 기회를 찾아야 한다. 그런데 중동 지역을 예로 들어보자. 요즘 중동 쪽에서 한국 IT기업을 눈여겨보고 있는데 여러 이유로 미국과 중국 기업을 꺼린다면 제3의 대안은 우리가 될 수 있다. 하지만 한국에 파운데이션 모델이 없다면 중동의 큰손들도 한국 AI기술을 높게 평가하지 않을 것이다. 그러니까 이건 '돈 잡아먹는 하마'라고 하더라도 키워야 한다. 원천기술이 당연히 있어야 하고, 미국이나 중국 수준까진 안 되더라도 일단 내세울 뭔가가 있어야 한다. 여기에 안전성까지 확보해야 틈새를 치고 나갈 수 있다. 정부가 AI 인프라 확충을 지원한다면 중소기업이나 스타트업들도 따라갈 수 있는 환경이 만들어질 수 있다. 자국 파운데이션 모델도 없는 나라가 AI G3로 갈 수는 없다. ―이 시점에서 '안전성'이 중요한 이유는. ▲AI 안전성이란 결국 '신뢰성'이다. 유럽연합(EU)에서는 '트러스트(Trust)', 영국에서는 '세이프티(Safety)', 미국에서는 '릴라이어빌리티(Reliability)'라는 용어를 쓰는데 의미는 모두 같다. 이번에 찾아온 AI 붐은 과거와는 다르다. AI가 전 분야에서 성능을 발휘하고 있고, 문제는 성능은 뛰어나다. 하지만 믿을 수가 없다. 그래서 신뢰성 문제가 나온다. AI는 인간 개입 없이 자율적으로 움직일 여지가 많다. 그래서 이용자 입장에선 불안하다. 딥페이크로 만든 불법 저작물이 대표적이다. 가짜가 더 진짜 같아 보인다. 발전한 AI기술은 양면성이 있다. 안전하지 않으면 결국 외면받고, 그러다 보면 AI를 만든 기업도 성장하기 어렵다. ―AI안전을 위해 가장 시급한 문제는.▲딥페이크가 가장 큰 문제다. 미국 LA 산불 같은 경우도 엄청난 가짜 영상들이 퍼지지 않았나. 가짜뉴스, 허위정보가 범람하면 민주주의가 흔들린다. 선거철이 되면 AI를 이용해 가짜여론을 형성할 수도 있고 이런 사회적 신뢰를 붕괴시키는 기술은 반드시 규제해야 한다. 생성형 AI도 위험성이 크다. 허위정보를 진짜인 것처럼 제시하는 환각현상이 해결되지 않았다. AI가 사람을 대신해 물건을 구매하고, 행동하는 시대가 오면 통제 불가능한 상황이 발생할 수 있다. 이 경우 '킬 스위치'(비상 정지장치)가 반드시 필요하다. 통제 가능한 AI를 만드는 게 그래서 중요하다. AI가 예측 불가능한 결정을 내릴 경우 즉시 멈출 수 있어야 한다. 그래서 AI 기본법에도 '비상 정지' 조항이 포함됐다. ―AI기본법이 EU에 이어 제정되면서 규제가 강화될 것이란 우려가 있는데.▲우리의 AI기본법은 EU와는 성격이 다르다. EU의 기본법은 소비자 보호를 위한 규제 중심이다. 그러나 한국은 법안 설계 초반에는 '진흥반, 규제반'이라고 했지만 결과적으로 진흥 70%, 규제 30%의 균형을 맞추는 방향으로 설계됐다. 다만 EU에서 말하는 고위험AI, 국내법에서 고영향AI 가이드라인은 필요하다. EU의 AI법이 향후에 어떻게 조정될지는 모르겠으나, 일단 2026년 법이 시행된다. 그러니까 2026년부터 EU에서 (국내 업체들이) AI 서비스를 판매하려면 규제를 충족해야 한다. 한국 기업들도 사전에 이를 준비해야 글로벌 시장에 진출할 수 있다는 얘기다. 특히 눈에 뻔히 보이는 위험이 있는데 그런 부분들은 걸러내야 하지 않겠나. 최소한의 위험을 방지한다는 개념으로 봐야 한다. 다만 우리 AI기본법에서 조금 아쉬운 부분이 있다면 샌드박스 규제에 대한 부분이 빠졌다는 것이다. 샌드박스를 통해서 규제 완화 부분도 법에 포함됐으면 좋았을텐데, 그건 시행령을 통해서 신경쓸 필요가 있다.―미국 트럼프 정부 2기가 출범했는데 AI 정책의 변화는.▲트럼프 정부의 대원칙은 '아메리카 퍼스트'다. 현재는 AI 규제를 완화하고 있지만 위험성이 커질 경우 미국이 규제를 강화하는 쪽으로 선회할 가능성도 봐야 한다. 챗GPT, 딥시크 등 AI서비스가 고도화되면 폭탄이나 원자력 등 기존 시스템에서 접근이 차단됐던 많은 안보 관련 정보들이 풀릴 수 있다. 굉장히 위험하다. AI 서비스는 실시간 학습을 한다. 무엇을 얼마만큼 알고 있는지 우리가 파악하기 어렵다. 실제 현실에선 접근 차단된 많은 정보들을 정보들이 포함되어 있을 수 있다. 이런 정보들이 제한 없이 풀릴 경우 위험은 커진다. 이런 잠재위험을 감안하면 정부가 사용자마다 등급별 접근 제한을 두는 규제도 생각해볼 수 있다. 트럼프 정부가 AI 규제를 완화하는 이유는 자국 기업에 이득이 되기 때문이다. 그런데 지금 이미 1등 하고 있는 국가인 미국 입장에서 볼 때 규제를 강화시키는 게 더 나을 수도 있다. 사용비를 100배 올릴 수도 있다. AI를 깊게 알수록 (위험성 때문에라도) 규제가 들어갈 수밖에 없다고 생각한다. 이게 국익과 연관되면 우방이라도 제한하지 않겠나. ―AI 안전연구소는 앞으로 어떤 부분에 집중할 계획인가. ▲AI 안전연구소는 기술적 안전성을 연구하는 기관이 아니라 정책, 법률, 윤리, 기술을 아우르는 AI 안전 포털 역할을 해야 한다고 생각한다. 일각에선 AI 안전연구소가 규제기관이라는 이미지 때문에 기업들이 '왜 AI 발전도 못했는데 규제부터 하느냐'는 반응을 보이기도 한다. AI 진흥연구소가 먼저 나와야 하는 거 아니냐는 말도 있다. 내 생각은 반대다. AI 안전연구소는 'AI 셰르파(Sherpa)'다. 히말라야 등반에서 셰르파는 등반대의 장비와 안전상태를 점검하고, 최적의 길을 안내한다. AI 안전연구소도 마찬가지다. 기업이 글로벌 AI 시장에서 성공하려면 연구소가 위험을 최소화하는 가이드 역할을 해야 한다. 단순한 규제기관이 아니라 동반자다. 셰르파는 정상에서 사진 찍을 때 빠진다. 연구소도 기업이 정상에 오르면 뒤에서 지원하는 역할이다. ―앞으로 10년 동안 AI 윤리와 안전성 분야에서 가장 중요한 이슈는.▲AI 사용자들의 의식 수준이 가장 중요하다. 개발자는 자기 경험 안에서만 부작용을 고려하는데, 수많은 AI 이용자 중에서 AI를 예상치 못한 방식으로 오용하거나 남용하는 사람이 나올 수밖에 없다. 이용자가 1000명이면 AI를 활용하는 방식은 1000가지 이상이다. 이것은 개발자 한 명이 커버할 수 있는 수준이 아니다. 그래서 사용자들의 참여가 중요하다. AI가 신뢰받지 못하면 결국 모든 게 무너진다. 이런 신뢰를 줄 수 있는 주체는 소비자다. AI 소비자들이 공론장에서 AI 문제를 제기하고 논의할 수 있어야 한다. yjjoe@fnnews.com 조윤주 기자■ 김명주 AI안전연구소장 약력 △1963년생 △서울대 컴퓨터공학과 석·박사 △서울여대 정보보호학부 교수(현) △바른AI연구센터 센터장(현) △2022년 OECD GPAI(Global Partnership on AI) 익스퍼트 멤버 △한국인터넷윤리학회 명예회장(현) △인공지능윤리정책포럼 위원장 △안드레이아 기관생명윤리위원회(IRB) 위원(현)
2025-02-18 18:08:24[파이낸셜뉴스] "인공지능(AI) 안전성이란 결국 신뢰입니다. AI가 최근 산업과 사회 전 분야에서 성능을 발휘하고 있지만, 문제는 아직은 '너무 뛰어나지만 신뢰할 수 없는' 기술이라는 점입니다. 신뢰받지 못하는 AI 기술은 언젠간 무너집니다. 안전성이 중요한 이유입니다". 김명주 AI안전연구소 소장( 사진)이 18일 파이낸셜뉴스와의 인터뷰에서 이같이 밝혔다. AI 기술이 급속도로 발전해도 안전성과 신뢰성이 확보되지 않으면 결국 곳곳에서 문제가 발생하며, 결국 AI 산업 전반에도 부정적인 영향을 미칠 것이라는 의미다. 지난해 11월 설립된 AI안전연구소는 고도화된 AI 위험, AI 윤리 문제 등에 대응하기 위해 출범했다. 보다 구체적으로는 안전하고 신뢰할 수 있는 AI의 개발과 활용 환경을 조성하고 국내 AI 기업의 경쟁력 확보 및 글로벌 진출을 지원하는 것이 목표다. 초대 소장인 김명주 서울여대 정보보호학부 교수는 컴퓨터공학을 전공한 AI윤리·신뢰성 전문가로 OECD 글로벌 AI 파트너십(GPAI)의 엑스퍼트 멤버로 활동하며, 지속가능한 AI발전을 위한 국제사회 논의에도 활발히 참여하고 있다. 다음은 김 소장과의 일문일답. -AI 안전연구소가 지난해 11월 출범했다. 어떤 역할을 맡나 ▲정식 명칭은 'AI안전원'(AI Safety Institute)이다. 원자력안전원처럼 AI의 정책과 안전을 관리한다. 캐치프레이즈도 '안전한AI로 만드는 지속가능한 미래'다. 안전과 반대되는 말은 위험이다. AI의 위험을 바라보는 시각은 다 다르다. 기술적인 위험 만을 보는 전문가도 있고 일반 시민들은 AI가 실직을 유발한다거나 딥페이크 문제로 불안해하기도 한다. 이런 고민들이 심해지면 그게 위험이 되는거다. 나는 'AI 잠재 위험 지도(potential risk map)'를 만들 필요가 있다고 생각한다. AI가 사회에 미치는 영향을 분석하고, 정치·사회·문화·노동·환경 등의 부정적 영향을 체계적으로 정리해 해결책을 마련해야 한다. 리스크는 계속 변하겠지만, 이런 잠정적인 맵을 만들어 놓고 계속 업그레이드해야 한다. AI 위험 요소는 국가마다 다를 수 있다. 국제 협력을 통해 공통된 문제를 정리하고, 우선순위를 세워 해결해 나가야 한다고 생각한다. -정부는 AI 3대 강국(AI G3)을 목표로 설정했다. 천문학적 자금이 투입되는 '별들의 전쟁'에서 한국이 경쟁력을 확보하려면 ▲우리가 '규모의 경제'에서 밀리는 것은 맞다. 대형언어모델(LLM) 등의 파운데이션 모델을 포기하고 차별화 전략으로 가자는 말도 일리 있다. 그럼에도 우리만의 AI 경쟁력을 갖추려면 ‘파운데이션 모델’은 반드시 보유해야 한다. 우리가 AI 기술을 글로벌 시장에 수출하려면, 최소한의 기반 모델이 필요하다. 미국과 중국과 1대1 경쟁을 하기는 어렵지만, 중동, 아시아, 아프리카 등 ‘제3 시장’에서 기회를 찾아야 한다. 그런데 중동 지역을 예로 들어보자. 요즘 중동쪽에서 한국 IT 기업을 눈여겨보고 있는데 여러 이유로 미국과 중국 기업을 꺼린다면 제3의 대안이 우리가 될 수 있다. 하지만 한국에 파운데이션 모델이 없다면 중동의 큰손들도 한국 AI기술을 높게 평가하지 않을 것이다. 그러니까 이건 '돈 잡아먹는 하마'라도 하더라도 키워야 한다. 원천 기술이 당연히 있어야 하고 미국이나 중국 수준까진 안되더라도 일단 내세울 뭔가가 있어야 한다. 여기에 안전성까지 확보해야 틈새를 치고 나갈 수 있다. 정부가 AI 인프라 확충을 지원한다면 중소기업이나 스타트업들도 따라갈 수 있는 환경이 만들어질 수 있다. 자국 파운데이션 모델도 없는 나라가 AI G3로 갈 수는 없다. -이 시점에서 '안전성'이 중요한 이유는 무엇인가. ▲AI 안전성이란 결국 ‘신뢰성’이다. 유럽연합(EU)에서는 ‘트러스트(Trust)’, 영국에서는 ‘세이프티(Safety)’, 미국에서는 ‘릴라이어빌리티(Reliability)’라는 용어를 쓰는데, 의미는 모두 같다. 이번에 찾아온 AI 붐은 과거와는 다르다. AI가 전 분야에서 성능을 발휘하고 있고, 문제는 성능은 뛰어나다. 하지만 믿을 수가 없다. 그래서 신뢰성 문제가 나온다. AI는 인간 개입 없이 자율적으로 움직일 여지가 많다. 그래서 이용자 입장에선 불안하다. 딥페이크로 만든 불법 저작물이 대표적이다. 가짜가 더 진짜같아 보인다. 발전한 AI기술은 양면성이 있다. 안전하지 않으면 결국 외면 받고, 그러다 보면 AI를 만든 기업도 성장하기 어렵다. -AI안전을 위해 가장 시급한 문제는 ▲딥페이크가 가장 큰 문제다. 미국 LA 산불 같은 경우도 엄청난 가짜 영상들이 퍼지지 않았나. 가짜 뉴스, 허위 정보가 범람하면 민주주의가 흔들린다. 선거철이 되면 AI를 이용해 가짜 여론을 형성할 수도 있고 이런 사회적 신뢰를 붕괴시키는 기술은 반드시 규제해야 한다. 생성형 AI도 위험성이 크다. 허위 정보를 진짜인 것처럼 제시하는 환각 현상이 해결되지 않았다. AI가 사람을 대신해 물건을 구매하고, 행동하는 시대가 오면 통제 불가능한 상황이 발생할 수 있다. 이 경우 '킬 스위치'(비상 정지 장치)가 반드시 필요하다. 통제 가능한 AI를 만드는게 그래서 중요하다. AI가 예측 불가능한 결정을 내릴 경우 즉시 멈출 수 있어야 한다. 그래서 AI 기본법에도 ‘비상 정지’ 조항이 포함됐다. -AI기본법이 EU에 이어 제정되면서 규제가 강화될 것이란 우려가 있다 ▲한국의 AI기본법은 EU와는 성격이 다르다. EU의 기본법은 소비자 보호를 위한 규제 중심이다. 그러나 한국 법안에서 AI산업 진흥에 초점을 맞준 내용이 차지하는 비중이 70%정도 된다. 다만 국내법에서도 EU의 법안처럼 고영향AI 가이드라인은 필요하다. EU의 AI법은 2026년에 시행되는데 국내 업체들이 AI서비스를 유럽에 수출하려면 이 규제를 맞춰야 한다. 한국 기업들이 사전에 이를 준비해야 글로벌 시장에 진출할 수 있다는 얘기다. 샌드박스를 통한 규제 완화 내용은 빠졌는데 그 점은 좀 아쉽다. 시행령을 통해서라도 살펴야 한다. -미국 트럼프 정부 2기가 출범했는데 AI 정책의 변화는 어떻게 보는지 ▲트럼프 정부의 대원칙은 '아메리카 퍼스트'다. 현재는 AI 규제를 완화하고 있지만 위험성이 커질 경우 미국이 규제를 강화하는 쪽으로 선회할 가능성도 봐야 한다. 챗GPT, 딥시크 등 AI서비스가 고도화되면 폭탄이나 원자력 등 기존 시스템에서 접근이 차단됐던 많은 안보 관련 정보들이 풀릴 수 있다. 굉장히 위험하다. AI 서비스는 실시간 학습을 한다. 무엇을 얼마만큼 알고 있는지 우리가 파악하기 어렵다. 실제 현실에선 접근 차단된 많은 정보들을 정보들이 포함되어 있을 수 있다. 이런 정보들이 제한없이 풀릴 경우 위험은 커진다. 이런 잠재 위험을 감안하면 정부가 사용자마다 등급별 접근 제한을 두는 규제도 생각해볼 수 있다. 트럼프 정부가 AI 규제를 완화하는 이유는 자국 기업에 이득이 되기 때문이다. 그런데 지금 이미 1등하고 있는 국가인 미국 입장에서 볼 때 규제를 강화시키는 게 더 나을 수도 있다. 사용비를 100배 올릴 수도 있다. AI를 깊게 알수록 (위험성 때문에라도) 규제가 들어갈 수 밖에 없다고 생각한다. 이게 국익과 연관되면 우방이라도 제한하지 않겠나. -AI 안전연구소는 앞으로 어떤 부분에 집중할 계획인가 ▲AI 안전연구소는 기술적 안전성을 연구하는 기관이 아니라 정책, 법률, 윤리, 기술을 아우르는 AI 안전 포털 역할을 해야 한다고 생각한다. 일각에선 AI 안전연구소가 규제기관이라는 이미지 때문에 기업들이 ‘왜 AI 발전도 못했는데 규제부터 하느냐’라는 반응을 보이기도 한다. AI 진흥 연구소가 먼저 나와야 하는 거 아니냐는 말도 있다. 내 생각은 반대다. AI 안전연구소는 ‘AI 세르파(Sherpa)’다. 히말라야 등반에서 세르파는 등반대의 장비와 안전 상태를 점검하고, 최적의 길을 안내한다. AI 안전연구소도 마찬가지다. 기업이 글로벌 AI 시장에서 성공하려면, 연구소가 위험을 최소화하는 가이드 역할을 해야 한다. 단순한 규제기관이 아니라 동반자다. 세르파는 정상에서 사진 찍을 때 빠진다. 연구소도 기업이 정상에 오르면 뒤에서 지원하는 역할이다. -앞으로 10년 동안 AI 윤리와 안전성 분야에서 가장 중요한 이슈는 무엇인가 ▲AI 사용자들의 의식 수준이 가장 중요하다. 개발자는 자기 경험 안에서만 부작용을 고려하는데, 수많은 AI 이용자 중에서 AI를 예상치 못한 방식으로 오용하거나 남용하는 사람이 나올 수 밖에 없다. 이용자가 1000명이면, AI를 활용하는 방식은 1000가지 이상이다. 이것은 개발자 한 명이 커버할 수 있는 수준이 아니다. 그래서 사용자들의 참여가 중요하다. AI가 신뢰받지 못하면 결국 모든 게 무너진다. 이런 신뢰를 줄 수 있는 주체는 소비자다. AI 소비자들이 공론장에서 AI 문제를 제기하고 논의할 수 있어야 한다. yjjoe@fnnews.com 조윤주 기자
2025-02-18 14:55:39