가수 김장훈과 한국 홍보 전문가 서경덕 성신여대 교수가 구글·애플의 '일본해' 표기에 항의하는 온라인 광고를 월스트리트저널(WSJ)에 게재했다. 서 교수는 9일 자신의 트위터를 통해 "구글과 애플이 일본해 단독표기 한 것과 독도표기를 뺀 것에 항의하고자 월스트리트저널 온라인판에 광고를 올렸습니다. 잘못된 것은 올바로 잡아야만 합니다!"라며 이에 대해 밝혔다. 'Error in Apple?'(애플의 오류?)과 'Error in Google?'(구글의 오류?)이라는 제목이 붙은 이 광고는 홈페이지 초기화면 우측 중앙에 이날부터 2주 동안 20만 번 노출될 예정이다. 광고 아래에는 고구려, 발해, 독도, 동해, 위안부 역사 등이 영문으로 기록된 홈페이지(www.forthenextgeneration.com) 주소도 표기되어 있으며 광고를 클릭하면 '독도'와 '동해'가 영문으로 표기된 지도 링크가 나오도록 되어 있다. 광고를 기획한 서 교수는 "구글과 애플이 독도를 다케시마로 단독 표기했다가 지난해에 철회했다"며 "이러한 일이 얼마나 잘못된 것인지 세계적인 언론매체의 웹사이트 광고를 통해 널리 알려 서계 여론을 환기시키고자 한다"고 설명했다. 이어 그는 "지금까지 게재한 월스트리트저널 지면 광고와 이번 온라인 광고, 그리고 동해·독도 표기가 왜 옳은지를 알리는 칼럼까지 신문에 보낸 상태"라고 덧붙였다. 한편, 서 교수와 김씨는 3년 전부터 지면광고를 통해 일본해 단독 표기의 오류를 알려왔다. 이후 월스트리트저널은 동해를 병기하고 있다고 이들은 밝혔다. onnews@fnnews.com 온라인뉴스팀
2013-01-09 09:28:19애플이 새롭게 선보인 아이폰5의 광고에서 오류가 보고된 기능을 강조하는 웃지 못할 일이 벌어졌다. 광고에 나온 아이폰5에 탑재된 iOS6의 새 기능인 '방해금지모드'가 문제를 일으켜 사용자들의 불만을 사고 있었기 때문이다. 1일(현지시간) 애플 관련전문 매체 '나인투파이브맥' 등 현지 언론들은 "유명 테니스 선수 자매인 비너스와 세레나 윌리엄스가 등장한 애플의 새 광고가 공개 되자마자 논란을 일으키고 있다"고 보도했다. 'Dream'이라는 제목의 이 광고에서는 비너스와 세레나가 함께 맞은편에서 넘어오는 탁구공을 받아 치는데, 개인기가 뛰어난 두 선수가 같이 공을 받아 치려다 보니 서로에 방해가 되고 끝내 경기를 포기하는 모습이 나온다. 이는 애플이 아이폰5의 방해금지모드는 절대 뚫리지 않음을 강조한 것이다. 방해금지모드는 사용자가 임의로 설정한 시간 동안 전화, 문자, 알림 등을 차단할 수 있는 기능이다. 이 기능을 사용하면 바쁘거나 잠을 잘 때 연락 전부 또는 일부를 수신하지 않도록 설정할 수 있다. 매체는 광고의 내용 구성과 아이디어는 뛰어났지만 광고가 방영된 시점이 문제였다고 지적했다. 스페인과 호주 등 해외의 사용자들은 1일부터 방해금지모드를 사용할 경우 예약 설정 시간이 지나도록 이 모드가 유지되는 바람에 전화나 문자를 받지 못했다는 불만을 제기하고 있는 상태다. 국내에서도 IT관련 커뮤니티와 SNS 등에는 "예약 시간이 지나도 아직까지 켜져 있다. 시간을 바꾸거나 예약을 껐다 켜도 여전하다", "방해금지모드 안 풀려서 조용한 새해를 맞은 사람들이 많다고 한다" 등의 불만글을 쉽게 찾아볼 수 있다. 한편, 애플은 해당 오류에 대해 아직 공식 입장을 밝히지 않고 있다. onnews@fnnews.com 온라인뉴스팀
2013-01-02 15:09:03대부업체들의 인터넷 대출 광고에 오류가 많아 금융 소비자들의 각별한 주의가 요구된다. 대부금융협회는 인터넷 홈페이지로 대출 광고를 하고 있는 240개 대부업체를 대상으로 한 실태 조사 결과, 23.8%인 57곳이 필수사항을 기재하지 않거나 잘못 표시한 것으로 나타났다고 10일 밝혔다. 지난 7월 21일부터 대부업 금리상한이 연 49%에서 44%로 인하됐음에도 44%를 초과하는 이자율을 기재하는 등 최고금리를 잘못 표시하는 경우가 가장 많았다. 또 원칙적으로 이자 외에 추가비용을 요구하는 것이 금지돼 있는데도 이자 외에 10∼15%의 부대비용을 요구하는 일도 있었다. 대부업체들이 인터넷 광고를 하려면 시·도에 대부업 등록을 할 때 사용한 상호와 전화번호를 사용해야 하지만 이를 지키지 않는 사례도 적발됐다. 또 대표자의 성명을 잘못 기재하거나 대부업 등록번호 및 주소를 제대로 적지 않은 경우도 많았다. 특히 시·도에 대부업 등록을 하지 않았음에도 불구하고 임의로 대부업 등록 번호를 기재해 마치 등록된 업체처럼 위장하는 사례도 있었다. 협회 관계자는 “상한을 넘어선 금리를 부담하거나 불법 수수료를 지불했을 때는 협회나 금융감독원에 민원을 제기하면 돌려받을 수 있다”면서 “허위 상호와 전화번호를 사용하는 업체들은 불법 가능성이 큰 유령업체로 대부업체 이용 전에 협회나 금감원을 통해 등록업체 여부를 확인해야 한다”고 말했다. /true@fnnews.com김아름기자
2010-11-11 00:22:32대부업체들의 인터넷 대출 광고에 오류가 많아 금융 소비자들의 각별한 주의가 요구된다. 대부금융협회는 인터넷 홈페이지로 대출 광고를 하고 있는 240개 대부업체를 대상으로 한 실태 조사 결과, 23.8%인 57곳이 필수사항을 기재하지 않거나 잘못 표시한 것으로 나타났다고 10일 밝혔다. 지난 7월 21일부터 대부업 금리상한이 연 49%에서 44%로 인하됐음에도 44%를 초과하는 이자율을 기재하는 등 최고금리를 잘못 표시하는 경우가 가장 많았다. 또 원칙적으로 이자 외에 추가비용을 요구하는 것이 금지돼 있는데도 이자 외에 10∼15%의 부대비용을 요구하는 일도 있었다. 대부업체들이 인터넷 광고를 하려면 시·도에 대부업 등록을 할 때 사용한 상호와 전화번호를 사용해야 하지만 이를 지키지 않는 사례도 적발됐다. 또 대표자의 성명을 잘못 기재하거나 대부업 등록번호 및 주소를 제대로 적지 않은 경우도 많았다. 특히 시·도에 대부업 등록을 하지 않았음에도 불구하고 임의로 대부업 등록 번호를 기재해 마치 등록된 업체처럼 위장하는 사례도 있었다. 협회 관계자는 “상한을 넘어선 금리를 부담하거나 불법 수수료를 지불했을 때는 협회나 금융감독원에 민원을 제기하면 돌려받을 수 있다”면서 “허위 상호와 전화번호를 사용하는 업체들은 불법 가능성이 큰 유령업체로 대부업체 이용 전에 협회나 금감원을 통해 등록업체 여부를 확인해야 한다”고 말했다. /true@fnnews.com김아름기자
2010-11-10 17:54:06[파이낸셜뉴스] 가수 김종국이 광고모델인 '익스트림 트리플 아르기닌' 제품이 일반식품임에도 건강기능식품으로 허위광고, 5640만원의 과징금 처분이 내려졌다. 7일 KPI뉴스에 따르면 서울 강남구는 익스트림이 판매하는 '익스트림 트리플 아르기닌 6200' 제품이 '식품 등의 표시·광고에 관한 법률'을 위반, 영업정지 15일을 대신해 과징금 5640만원 처분을 확정했다. 익스트림이 자사 쿠팡 판매 페이지에 일반식품인 '익스트림 트리플 아르기닌 6200' 제품을 건강기능식품으로 인식할 우려가 있는 표시 또는 광고 행위를 했다는 것. 제품 광고 하단에는 '건강기능식품 20ml×30포(600ml) '문구를 표시하고 우수건강기능 식품제조 기준인 GMP(Good Manufacturing Practice) 마크가 표시돼 있다. 해당 제품의 제조원은 콜마비앤에이치(콜마BNH)다. 일반식품을 건강기능식품으로 광고하면 식품표시광고법 위반에 해당한다. 식품 등의 표시·광고법에 따르면 '건강기능식품이 아닌 것을 건강기능식품으로 인식할 우려가 있는 표시 또는 광고하는 것을 금지'한다고 규정돼 있다. 위반할 경우 10년 이하 징역 또는 1억 원 이하 벌금에 처하거나 병행해서 부과할 수 있다. 이와 관련해 11일 강남구 보건소 위생과 관계자는 본지에 "(익스트림에) 과징금 (5640만원)을 부과한 것이 맞다"고 밝혔다. 익스트림 전속모델은 김종국으로 지난 2021년 9월부터 기용 빠른 성장세를 보였다. 실제로 지난해 전년(186억원) 대비 2배 이상의 매출 (397억원)을 올렸다. 익스트림 측은 행정처분에 대해 "불미스러운 소식으로 고객님들께 심려를 끼쳐드린 점 진심으로 사과드린다"고 입장을 밝혔다. 먼저 "당사는 전체 제품 페이지 리뉴얼 작업을 진행하는 과정에서 '익스트림 트리플 아르기닌 6200' 제품의 80여 개 판매 페이지 중 1개 페이지에서 일반식품(혼합음료)을 '건강기능식품'으로 제조사 소개 부분에 GMP 인증 마크를 실수로 잘못 표기한 사실이 확인되어 식품표시광고법 위반으로 과징금 처분을 받게 됐다"고 설명했다. 이어 "해당 오류는 기존 건강기능식품 페이지를 수정하는 과정에서 발생한 것으로, 발견 즉시 시정조치를 완료했다"며 "오해를 야기할 수 있는 모든 표현을 삭제했다"고 덧붙였다. 특히 지난 8월 중 해당 제품을 구매, 불편을 겪은 이들에게는 환불 조치를 하겠다고 밝혔다. 또한 익스트림 측은 "재발 방지를 위해 ▲모든 제품 페이지에 대한 이중 검수 시스템 도입 ▲제품 표시·광고 관리 체계 강화 ▲상세페이지 제작 프로세스 전면 개선을 즉시 이행하겠다"고 강조했다. 마지막으로 "이번 일을 깊이 반성하고, 앞으로 고객 신뢰 회복을 위해 더욱 철저한 관리와 노력울 기울이겠다"며 다시 한번 고개를 숙였다. gaa1003@fnnews.com 안가을 기자
2024-11-11 17:51:46<편집자주> 인공지능(AI) 바둑 프로그램 '알파고'가 세계적인 프로바둑 기사 이세돌에게 압도적 승리를 거둔 지난 2016년 이후 AI에 대한 관심이 급증했다. 2022년에는 '챗(Chat)GPT'라는 생성형 AI의 등장으로 AI 활용은 일상화가 됐다. 올해는 AI가 노벨과학상을 사실상 휩쓸었다. 이처럼 우리는 AI가 불러온 대전환의 시대에 살고 있다. 파이낸셜뉴스의 기획 취재의 시작점은 여기였다. AI가 인간을 대체하고 있는 시대에 인간이 생각하는 '미래 직업'이 아닌 AI가 스스로가 생각하는 '미래 직업'이 궁금했다. 따라서 기획 기사는 AI에 의뢰해 기획안을 만들었다. AI가 지시한 취재 방식에 따라 추천한 지역을 찾았고 요구한 인터뷰를 진행했다. 기사 작성만 기자가 직접했다. 이번 인터뷰는 AI가 기획 기사로 제시한 세번째 번째 인물이다. AI는 미국 일리노이주 시카고에서 벤 자오 시카고대 컴퓨터 공학과 교수를 만날 것으로 제안했다. 현재 AI가 가진 문제점과 갈수록 드러나는 한계점에 대한 이야기를 들어볼 수 있다고 했다. 【파이낸셜뉴스 시카고(미국)=강명연 노유정 기자】 챗(Chat)GPT는 미국 일리노이주 시카고에서 벤 자오 시카고대 컴퓨터공학과 교수(사진)를 만날 것을 제안했다. 자오 교수 연구팀은 생성형 인공지능(AI)이 인간 창작자의 저작권과 창의성을 침해하지 못하도록 막는 연구를 하고 있다. 타임지 선정 '2023년 최고의 발명품' 중 하나인 '글레이즈(Glaze)'는 자오 교수 연구팀이 개발한 것이다. 이용자가 사람의 눈에는 거의 보이지 않는 수준의 특수한 노이즈를 게시 작품에 추가해 AI에는 원래의 작품과 다른 외관의 이미지로 인식하도록 하는 방식으로 모방을 방지하는 것이 글레이즈의 원리다. 자오 교수 연구팀은 지난 1월 한 단계 더 발전한 '나이트 셰이드(Nightshade)'를 선보였다. 이미지에 독약을 묻혀 생성형 AI의 이미지 생성체계 자체를 무너뜨리는 방법이다. 나이트 셰이드가 적용된 이미지를 생성형 AI가 학습하면 개를 고양이로, 자동차를 소로 인식하게 되는 등 AI 이미지 인식 등의 작업에 오류가 생긴다. 본지를 만난 자오 교수는 "이미 많은 사람들이 AI 때문에 일자리를 잃었다"며 "일부는 AI가 인간의 업무를 대체해서 그렇지만, 실제 대부분은 그렇지 않다"고 강조했다. 다음은 AI 기술과 직업의 변화를 주제로 한 자오 교수와의 일문일답. ―생성형 AI에 반대하는 입장을 밝혀왔는데. ▲전반적으로 생성형 AI는 필요 없다고 생각한다. 생성형 AI는 글을 작성하고 이미지나 음악을 만들어내는 기술이지만 결과물이 정말 '새로운 것'은 아니다. 고양이 그림들을 주고 학습시키면 그 그림들을 한데 섞어 '약간 달라 보이는' 고양이 그림을 내놓는 식이다. ―하지만 어떤 방식으로 작동하든 생성형 AI가 결과물을 낸다면 기업에선 충분히 이용할 수 있을 것 같은데. ▲대부분은 AI가 일자리를 대체해서가 아니라 기업이 AI의 한계를 제대로 이해하지 못해서 대량해고가 발생한다. 예를 들어 한 회사에서 원래 고용했던 20명의 아티스트 가운데 19명을 해고하고 AI를 활용하는 경우가 생기고 있다. 하지만 AI는 인간처럼 지시를 이해하고 일하지 못한다. 그래서 결과적으로 남은 아티스트 1명이 20명분의 일을 해야 하는 상황이 된다. ―생성형 AI 기술이 더욱 발전하면 문제가 해결되지 않을까. ▲생성형 AI의 본질적인 원리를 생각하면 쉽지 않다. 생성형 AI는 데이터를 그대로 외우고, 모방해서 결과를 낸다. 인간처럼 의미를 이해하고 결과를 도출하는 것이 아니다. 예컨대 '1+2'의 답이 무엇인지 물어보면 생성형 AI는 '1+2=3'으로 표시한 수많은 데이터를 그대로 학습했기 때문에 '1+2' 뒤에 '=3'을 넣어야 한다고 판단한다. 반면 인간은 '1' 또는 '2'라는 숫자의 개념과 '+'라는 사칙연산의 의미를 이해해 '3'이라는 결론에 도달한다. 그림도 마찬가지다. 생성형 AI가 만들어낸 그림은 수많은 '그림'이라는 데이터를 조합한 결과물이라고 할 수 있다. 생각을 표현하는 도구로써의 인간의 그림과 차이가 날 수밖에 없다. 그런 '데이터 조합'이 만들어낸 '그림'은 인간이 보기에 어색하거나 불편한 부분이 있을 수밖에 없다. 이는 생성형 AI의 작동원리를 생각하면 시간이 흘러도 해결되기는 어려워 보인다. ―생성형 AI가 이미 많이 쓰이고 있는데 이런 상황이 계속되면 어떻게 될까. ▲많은 기업이 이미 생성형 AI를 도입했고, 디자이너들을 해고했다. 이들은 시간이 지나 제품의 질이 나빠졌다는 것을 깨닫고 다시 디자이너를 고용했다. 결국 비용이 절감되지 않은 것이다. 동시에 AI를 이용한 회사가 단기적으로 비용을 낮추면서 경쟁업체들도 버티지 못하고 망했다. 모두가 지는 게임이다. 실제로 생성형 AI를 개발하는 회사들도 망해가고 있다. 대용량 컴퓨터, 빅데이터 센터를 유지하는 데 많은 비용이 들어서다. 스태빌리티 AI(Stability AI)는 이미지를 생성하는 AI를 처음 만든 스타트업이고, 그 분야에서 가장 큰 회사인데도 거의 파산 직전이다. 또 전력이나 냉각수 등의 자원도 필요하다. 누군가 생성형 AI에 질문을 하나 할 때마다 환경에 영향을 미친다. ―생성형 AI가 아닌 다른 AI는 인간 일자리에 얼마나 영향을 미칠까. ▲AI를 탑재한 차량은 1㎞ 전방에 있는 보행자를 인식해 서행할 수 있고, 의사들은 AI를 이용하면 엑스레이 사진만 보고 암이라는 것을 진단할 수 있다. AI는 세탁기처럼 인간이 원치 않는 일을 대신 해줄 것이다. 지금 당장은 AI가 인간의 업무를 대체하는 것처럼 보이지만, 장기적으로는 한계가 드러날 것이다. 법률적 상담이나 간단한 회계 처리 같은 일들은 AI로 충분히 할 수 있다. 하지만 복잡하고 중요한 법률적 판단이나 회계 분석은 AI가 처리하기에는 아직 부족하다. 문제는 이런 업무는 경험을 통해 숙련되는 부분이 많다는 점이다. 변호사들은 처음 일을 배울 때 법률 보조 업무를 하는데 AI가 일을 대신하면 경험을 쌓을 기회를 잃게 된다. 나중에 정식 변호사가 돼도 실무에 필요한 경험이 부족한 상태로 일하게 될 수 있다. *본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다. yesyj@fnnews.com 노유정 기자
2024-11-03 18:20:39<편집자주> 인공지능(AI) 바둑 프로그램 '알파고'가 세계적인 프로바둑 기사 이세돌에게 압도적 승리를 거둔 지난 2016년 이후 AI에 대한 관심이 급증했다. 2022년에는 '챗(Chat)GPT'라는 생성형 AI의 등장으로 AI 활용은 일상화가 됐다. 올해는 AI가 노벨과학상을 사실상 휩쓸었다. 이처럼 우리는 AI가 불러온 대전환의 시대에 살고 있다. 파이낸셜뉴스의 기획 취재의 시작점은 여기였다. AI가 인간을 대체하고 있는 시대에 인간이 생각하는 '미래 직업'이 아닌 AI가 스스로가 생각하는 '미래 직업'이 궁금했다. 따라서 기획 기사는 AI에 의뢰해 기획안을 만들었다. AI가 지시한 취재 방식에 따라 추천한 지역을 찾았고 요구한 인터뷰를 진행했다. 기사 작성만 기자가 직접했다. 이번 인터뷰는 AI가 기획 기사로 제시한 두번째 번째 인물이다. AI는 미국 시애틀을 방문 과정에서 세계적인 컴퓨터 과학 석학 페드로 도밍고스 워싱턴 주립대 명예교수를 만나 AI 미래에 대해 이야기를 들어보기를 제안했다.【파이낸셜뉴스 시애틀(미국)=주원규 이진혁 기자】 "인공지능(AI)에 대한 어설픈 규제는 재앙을 불러온다." 챗(Chat)GPT의 제안에 따라 본지가 지난 8월 27일 미국 시애틀 벨뷰에서 만난 페드로 도밍고스 워싱턴주립대 명예교수는 이같이 밝혔다. 데이터과학 분야의 최고 영예인 SIGKDD 혁신상을 2년 연속 수상한 세계적 컴퓨터과학 석학인 도밍고스 교수는 현재 유럽 등에서는 AI에 대한 강한 규제가 이뤄지고 있다면서 이런 규제는 AI가 가진 위험성이 과대평가된 결과라고 진단했다. 그러면서 가까운 미래에는 AI를 능숙히 활용하는 사람 또는 국가와 규제 등으로 그렇지 못한 사람 또는 국가 간 격차가 벌어질 것이라고 봤다. 다음은 AI기술과 직업의 변화를 주제로 한 도밍고스 교수와의 일문일답. ―AI가 일자리와 직업에 미칠 가장 큰 변화는. ▲모라벡 패러독스(Morabacks's Paradox)라는 말이 있다. 인간에게 어려운 고차원 인지작업은 AI에 쉬운 반면 인간에게 쉬운 감각적·운동적 작업은 AI에 어렵다. 단순노동 직업 등이 AI의 발전으로 영향을 받을 것이다. 실제로는 학위가 필요한 그런 직업들이 자동화되고 있다. 가장 전문적이고 대체하기 어려울 것으로 예상되던 법률가나 의사도 대체될 수 있다. 창의성 역시 대체 가능하다. ―화이트칼라 노동자가 AI로 대체되고 있는 상황을 평가한다면. ▲AI가 사람을 '완전히' 대체할 수는 없다. AI가 더 잘할 수도 있고, 못하는 것도 있을 수 있다. 이에 맞춰 시스템이 개편될 것이라는 생각이 든다. AI 사용은 우리에게 이익이 된다. 우리가 못하는 일을 대체하고 그 시간에 더 잘하는 일에 집중해야 한다. 미래는 AI를 직업과 직무에 사용하는 사람들 손에 달려 있다. 다시 말해 미래는 사람과 AI가 대결하는 구도가 아니라 AI를 능숙히 다루는 사람과 그렇지 못한 사람의 구도가 될 것이다. ―이런 상황에서 정부의 역할은. ▲정부가 하지 말아야 할 일은 AI 기술산업에 너무 많은 규제를 만드는 것이다. 재앙을 불러올 수 있다. 유럽은 강한 규제로 AI 산업 성장이 가로막히면서 미국과 격차가 커질 것으로 예상된다. 인터넷 도입 시기를 생각해 보면 된다. 당시 미국의 경우 주별로 별도의 규제가 만들어지고 있었다. 모든 주에서 각기 다른 규제가 적용되니 복잡하기만 한 상황이었다. 이에 미국은 연방정부 차원에서 통합된 하나의 규제를 만들어 일괄 적용했다. 이후 인터넷은 빠르게 발전할 수 있었다. AI도 인터넷과 동일한 방식으로 접근해야 한다는 생각이다. 아울러 일반 시민을 대상으로 AI 사용법과 필요성을 적극 알리고 교육하는 부분도 중요하다. 정부가 AI를 직접 써보고 장단점을 파악한 뒤 어떤 부분을 규제해야 하는지, 어떤 부분을 신뢰할 수 있는지 판단하는 것이 필요하다. ―AI가 인터넷처럼 누구에게나 평등하게 주어질 것으로 보나. ▲오픈소스와 클로즈소스를 둘 다 활용하는 것이 필요하다. 혹자는 오픈소스를 제한해야 한다고 말한다. 악용 가능성이 있기 때문이다. 누군가는 'AI가 위험하다, 어떻게 사용될지 모른다'고 말하지만 소프트웨어는 오픈소스에서 오류를 찾고 수정하는 과정에서 기술이 발전한다. 다만 여전히 악용될 가능성도 있기 때문에 안전장치가 필요하다. 더불어 AI가 잘못 작용하는 것보다 안전장치를 잘못된 사람이 가지고 있는 것이 더 큰 문제다. 사람들이 생각하는 것처럼 AI가 악한 마음을 품고 범죄를 일으키는 것은 사실 불가능한 일이다. 가장 위험한 AI는 멍청한 AI다. 에러가 많고 사실을 구분하지 못한다. 기술 발전이 더디면 AI가 더 위험해질 가능성이 있기 때문에 기술 발전 속도를 빠르게 해야 한다. AI를 완전히 컨트롤하려 드는 것은 멍청한 AI를 만드는 길이다. ―지금 한국의 독자들이 AI 기술을 어떻게 받아들여야 하나. ▲AI를 사용하는 법을 배우는 것이 가장 중요하다. 박사학위를 가지고 있는 것이 아니더라도 배워서 자신의 직무와 업무에 어떻게 사용할지 배워야 한다. 많은 이들이 지금은 어떻게 직업에 녹여내고 있는지를 모르기 때문에 중요한 기회의 시점이다. 이런 상황에 적응하지 못한다면 직업을 잃을 수도 있고, 밀려날 수도 있다. 비즈니스와 의학을 예로 들자면, AI를 발명하는 사람들이 비즈니스와 의학에 접목하는 것보다 지금 업계에 있는 사람들이 비즈니스와 의학에서 어떻게 AI를 활용할지 배워야 한다. 그래야 시대를 따라가고 기회를 잡을 수 있다. 특히 시니어급 직무를 가진 사람들은 AI를 접목하는 분야에서 이득을 가져다줄 것이다. *본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다. wongood@fnnews.com 주원규 이진혁 기자
2024-10-31 18:15:27인공지능(AI) 바둑 프로그램 '알파고'가 세계적인 프로바둑 기사 이세돌에게 압도적 승리를 거둔 지난 2016년 이후 AI에 대한 관심이 급증했다. 2022년에는 '챗(Chat)GPT'라는 생성형 AI의 등장으로 AI 활용이 일상화됐다. 올해는 AI가 올해 노벨 과학상을 사실상 휩쓸었다. AI가 인간의 영역을 하나씩 대체하고 있는 모양새다. 본지의 기획취재 시작점은 바로 여기였다. AI가 인간을 대체하고 있는 시대에 인간이 생각하는 '미래 직업'이 아닌 AI가 스스로가 생각하는 '미래 직업'이 궁금했다. 따라서 AI에 기획취재를 맡기기로 했다. AI가 기획안을 만들고 AI가 지시한 방식으로 취재하고 AI가 추천한 장소, 인물을 찾아 현장 취재를 했다. 언론 업계에서 보조적 역할을 수행하는 AI에 더 많은 역할을 부여해 보겠다는 생각이었다. ■언론 현장에서 활용되는 'AI' 27일 외신 등에 따르면 해외에서는 생성형 AI를 다양하게 접목, 기사 작성도구 외에도 새로운 서비스 구축에 활용하고 있다. 영국 파이낸셜타임스(FT)는 앤스로픽 LLM 클로드를 활용해 '애스크 FT(Ask FT)' 챗봇을 출시했다. 워싱턴포스트는 기후변화 관련 질문에 답하는 AI 챗봇 '클라이미트 앤서(Climate Answers)'를 선보였다. 두 챗봇 모두 각 언론사의 보도를 바탕으로 질문에 답변한다. FT는 이를 기업고객 등 유료 모델에 적용하고 있다. 국내에서도 일부 언론사에서 AI 테크기업과 손잡고 자체 시스템을 개발, 기사 초안을 작성하고 있다. 특히 주식 시황 분석, 날씨, 스포츠 경기 결과 등은 AI가 적극 활용된다. 올해 언론계의 노벨상으로 불리는 퓰리처상 수상작에서도 AI를 활용한 기사가 두편이 나왔다. 뉴욕타임스의 '하마스가 이스라엘군에 대해 알고 있던 비밀'(The Secrets Hamas Knew About Israel's Military) 기사는 국제보도부문 상을 받았다. 인비저블인스티튜트는 '시카고의 실종'(Missing in Chicago) 기사로 지역부문 상을 받았다. 해당 기사들은 자료 분석의 일환으로 기계학습 모델을 적극 활용했다는 점이 특징이다. 다만 아직까지 AI는 언론 부문에서 보조적인 역할에 그치고 있다. 한국언론진흥재단이 개최한 'AI와 언론의 혁신' 컨퍼런스에서 어니스트 쿵 AP통신 AI프로덕트 매니저는 "적어도 AI로 인해 AP통신에서 일자리를 뺏긴 사람은 없다"며 "생성형 AI는 오류 없는 기사를 안정적으로 작성할 수 없다"고 했다. ■AI 지시에 따르는 '기자' 언론 현장에서 AI에 대한 다양한 시도가 이어지는 가운데 본지도 새로운 시도에 도전했다. AI가 기획을 하고 기자가 그대로 수행하는 것이다. 주제만 정해주고 나머지 모든 기획안을 AI에 맡겼다. 이후 취재 진행방법, 취재 현장, 데이터 확보 등도 AI가 알려준 방식을 따랐다. 여기에는 생성형 AI인 '챗GPT 4o'가 사용됐다. 첫 질문은 "AI가 바라보는 직업의 미래라는 주제로 기획기사를 쓰겠다"는 질문으로 시작했다. 제한을 두기 위해 기획기사는 총 8회로 제한했다. 각 구성은 챗GPT의 안내를 그대로 수용했다. AI가 제시한 기획기사에서는 기존 인간의 직업이 도전받고 있다며 우려했고, 정부의 교육 강화를 요구했다. 언론직업의 미래에 대해서도 고민했다. 아울러 AI로 인해 성장한 미국 시애틀에 대해 취재하길 권했다. 반면 기술 변화로 인해 쇠퇴하고 있는 미국 시카고 취재도 요청했다. AI가 내리는 취재 지시를 따르는 과정에서 문제가 발생하기도 했다. AI는 틀린 사실을 알려주기도 했으며, 허구의 취재원을 권하기도 했기 때문이다. 고민 끝에 독자에게 잘못된 사실을 전달할 수는 없고 허구의 취재원을 만나는 것이 불가능하기에 문제 되는 부분은 수정을 결정했다. 앞으로 이어질 6개의 기사는 AI와 기자의 협업이, 마지막 8화는 AI 지시를 따라 현장을 뛴 기자들이 체험하고 느낀 점을 바탕으로 AI를 평가해 봤다. 본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다. beruf@fnnews.com 이진혁 기자
2024-10-27 18:13:19[파이낸셜뉴스] 인공지능(AI) 바둑 프로그램 '알파고'가 세계적인 프로바둑 기사 이세돌에게 압도적 승리를 거둔 지난 2016년 이후 AI에 대한 관심이 급증했다. 2022년에는 '챗(Chat)GPT'라는 생성형 AI의 등장으로 AI 활용이 일상화가 됐다. 취업을 위한 이력서를, 발표를 위한 기획서를, 출품을 위한 작품을 AI에게 맡기는 현상이 나타났다. 올해는 AI가 올해 노벨과학상을 사실상 휩쓸었다. AI가 인간의 영역을 하나씩 대체하고 있는 모양새다. 이처럼 우리는 AI가 불러온 대전환의 시대에 살고 있다. 본지의 기획 취재 시작점은 바로 여기였다. AI가 인간을 대체하고 있는 시대에 인간이 생각하는 '미래 직업'이 아닌 AI가 스스로가 생각하는 '미래 직업'이 궁금했다. 따라서 AI에 기획 취재를 맡기기로 했다. AI가 기획안을 만들고 AI가 지시한 방식으로 취재하고 AI가 추천한 장소, 인물을 찾아 현장 취재를 했다. 언론 업계에서 보조제에 역할을 수행하는 AI에게 더 많은 역할을 부여해 보겠다는 생각이었다. ■언론 현장서 활용되는 'AI'27일 외신 등에 따르면 해외에서는 생성형 AI를 다양하게 접목해 기사 작성 도구 외에도 새로운 서비스 구축에 활용하고 있다. 영국 파이낸셜타임스(FT)는 앤스로픽 LLM 클로드를 활용해 '애스크 FT(Ask FT)' 챗봇을 출시했다. 워싱턴포스트는 기후변화 관련 질문에 답하는 AI 챗봇 '클라이미트 앤서(Climate Answers)'를 선보였다. 두 챗봇 모두 각 언론사의 보도를 바탕으로 질문에 답변한다. FT는 이를 기업 고객 등 유료 모델에 적용하고 있다. 국내에서도 일부 언론사에서 AI 테크 기업과 손을 잡고 자체 시스템을 개발해 기사 초안을 작성하고 있다. 특히 주식 시황 분석, 날씨, 스포츠 경기 결과 등은 AI가 적극 활용된다. 올해 언론계의 노벨상이라 불리는 퓰리처상 수상작에서도 AI를 활용한 기사들이 두편이 나왔다. 뉴욕타임스의 '하마스가 이스라엘군에 대해 알고 있던 비밀'(The Secrets Hamas Knew About Israel's Military) 기사는 국제보도 부문 상을 받았다. 인비저블인스티튜트는 ‘시카고의 실종’(Missing in Chicago) 기사로 지역부문 상을 받았다. 해당 기사들은 자료 분석의 일환으로 기계학습 모델을 적극 활용했다는 점이 특징이다. 다만 아직까지 AI는 언론 부문에서 보조적인 역할에 그치고 있다. 한국언론진흥재단이 개최한 'AI와 언론의 혁신' 컨퍼런스에서 어니스트 쿵 AP통신 AI 프로덕트 매니저는 "적어도 AI로 인해 AP통신에서 일자리를 뺏긴 사람은 없다"며 "생성형 AI는 오류 없는 기사를 안정적으로 작성할 수 없다"고 했다. ■AI 지시에 따르는 '기자'언론 현장에서 AI에 대한 다양한 시도가 이어지는 가운데 본지도 새로운 시도에 도전했다. AI가 기획을 만들고 기자가 그대로 수행하는 것이다. 주제만 정해주고 나머지 모든 기획안을 AI에게 맡겼다. 이후 취재 진행 방법, 취재 현장, 데이터 확보 등도 AI가 알려준 방식을 따랐다. 여기에는 생성형 AI인 '챗GPT 4o'가 사용됐다. 첫 질문은 "AI가 바라보는 직업의 미래라는 주제로 기획 기사를 쓰겠다"라는 질문으로 시작했다. 제한을 두기 위해 기획 기사는 총 8회로 제한했다. 각 구성은 챗GPT의 안내를 그대로 수용했다. AI가 제시한 기획 기사에는 기존 인간의 직업이 도전받고 있다며 우려했고 정부의 교육 강화를 요구했다. 언론 직업의 미래에 대해서도 고민했다. 아울러 AI로 인해 성장한 미국 시애틀에 대해 취재하길 권했다. 반면 기술 변화로 인해 쇠퇴하고 있는 미국 시카고 취재도 요청했다. AI가 내리는 취재 지시를 따르는 과정에서 문제가 발생하기도 했다. AI는 틀린 사실을 알려주기도 했으며 허구의 취재원을 권하기도 했기 때문이다. 고민 끝에 독자에게 잘못된 사실을 전달할 수는 없고 허구의 취재원을 만나는 것이 불가능하기에 문제 되는 부분은 수정을 결정했다. 앞으로 이어질 6개의 기사는 AI와 기자의 협업이 마지막 8화는 AI 지시를 따라 현장을 뛴 기자들이 체험하고 느낀 점을 바탕으로 AI를 평가해 봤다. 챗GPT 4o는 본지 기획 취재에 대해 "AI의 발전은 단순한 자동화 도구를 넘어, 창의성과 직관이 필요한 업무까지도 지원할 수 있는 수준에 도달하고 있다"면서도 "인간의 역할은 여전히 중요다. 특히 신뢰성과 비판적 사고는 AI가 대체할 수 없는 저널리즘의 핵심 요소로 남을 것"이라고 평가했다. *본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다. beruf@fnnews.com 이진혁 기자
2024-10-25 11:37:08[파이낸셜뉴스] 【시애틀=주원규 이진혁 기자】 "인공지능(AI)에 대한 어설픈 규제는 재앙을 불러온다." 챗(Chat)GPT의 제안에 따라 본지가 지난 8월 27일 미국 시애틀 밸뷰에서 만난 페드로 도밍고스 워싱턴 주립대 명예교수는 이같이 밝혔다. 데이터과학 분야의 최고 영예인 SIGKDD 혁신상을 2년 연속 수상한 세계적인 컴퓨터 과학 석학인 도밍고스 교수는 현재 유럽 등에서는 AI에 대한 강한 규제가 이뤄지고 있다면서 이런 규제는 AI가 가진 위험성이 과대평가된 결과라고 진단했다. 그러면서 가까운 미래에는 AI를 능숙히 활용하는 사람 또는 국가와 규제 등으로 그렇지 못한 사람 또는 국가 간 격차가 벌어질 것이라고 봤다. 다음은 AI기술과 직업의 변화를 주제로 한 도밍고스 교수와의 일문일답. ―AI가 일자리에 직업에 미칠 가장 큰 변화는 무엇인가. ▲모라벡 페러독스(Morabacks's Paradox)라는 말이 있다. 인간에게 어려운 고차원 인지 작업은 AI에게 쉬운 반면 인간에게 쉬운 감각적·운동적 작업은 AI에게 어렵다. 단순 노동 직업 등이 AI의 발전으로 영향을 받을 것이다. 실제로는 학위가 필요한 그런 직업들이 자동화되고 있다. 가장 전문적이고 대체하기 어려울 것이라고 예상되던 법률가나 의사도 대체될 수 있다. 인간이 지니는 창의성 역시 대체 가능하다. ―화이트 칼라 노동자가 AI로 대체되고 있는 상황에 대해 평가한다면. ▲AI는 사람을 '완전히' 대체할 수는 없다. AI가 더 잘할 수도 있고 못하는 것도 있을 수 있다. 이에 맞춰 시스템이 개편될 것이라는 생각이 든다. AI의 사용은 우리에게 이익이 된다. 우리가 못하는 일을 대체하고 그 시간에 더 잘하는 일에 집중해야 한다. 미래는 AI를 직업과 직무에 사용하는 사람들 손에 달려 있다. 다시 말해 미래는 사람과 AI가 대결하는 구도가 아니라 AI를 능숙히 다루는 사람과 그렇지 못한 사람의 구도가 될 것이다. ―이런 상황에서 정부의 역할은. ▲정부가 하지 말아야 할 일은 AI 기술 산업에 너무 많은 규제를 만드는 것이다. 재앙을 불러올 수 있다. 유럽은 강한 규제로 AI 산업 성장이 가로막히면서 미국과 격차가 커질 것으로 예상된다. 인터넷 도입 시기를 생각해 보면 된다. 당시 미국의 경우 주별로 별도의 규제가 만들어지고 있었다. 모든 주에서 각기 다른 규제가 적용되니 복잡하기만 한 상황이었다. 이에 미국은 연방정부 차원에서 통합된 하나의 규제를 만들어 일괄 적용했다. 이후 인터넷은 빠르게 발전할 수 있었다. AI도 인터넷과 동일한 방식으로 접근해야 한다는 생각이다. 아울러 일반 시민을 대상으로 AI 사용법과 필요성에 대해 적극 알리고 교육하는 부분도 중요하다. 정부가 AI를 직접 써보고 장단점을 파악한 뒤 어떤 부분을 규제해야 하는지, 어떤 부분을 신뢰할 수 있는지 판단하는 것이 필요하다. ―AI가 인터넷처럼 누구에게나 평등하게 주어질 것으로 보는가. ▲오픈 소스와 클로즈 소스를 둘 다 활용하는 것이 필요하다. 혹자는 오픈 소스를 제한해야 한다고 말한다. 악용 가능성이 있기 때문이다. 누군가는 'AI가 위험하다, 어떻게 사용될지 모른다'고 말하지만 소프트웨어는 오픈소스에서 오류를 찾고 수정하는 과정에서 기술이 발전한다. 다만 여전히 악용될 가능성도 있기 때문에 안전장치가 필요하다. 더불어 AI가 잘못 작용하는 것보다 안전장치를 잘못된 사람이 가지고 있는 것이 더 큰 문제다. 사람들이 생각하는 것처럼 AI가 악한 마음을 품고 범죄를 일으키는 것은 사실 불가능한 일이다. 규제를 넣으면 넣을수록 AI 기술의 발전은 더딜 수밖에 없다. 가장 위험한 AI는 멍청한 AI다. 에러가 많고 사실을 구분하지 못한다. 기술 발전이 더디면 AI가 더 위험해질 가능성이 있기 때문에 기술 발전 속도를 빠르게 해야 한다. AI를 완전히 컨트롤하려고 드는 것은 멍청한 AI를 만드는 길이다. ―지금 한국의 독자들이 AI 기술을 어떻게 받아들여야 하나. ▲AI를 사용하는 법을 배우는 것이 가장 중요하다. 박사 학위를 가지고 있는 것이 아니더라도 배워서 자신의 직무와 업무에 어떻게 사용할지 배워야 한다. 많은 이들이 지금은 어떻게 직업에 녹여내고 있는지를 모르기 때문에 중요한 기회의 시점이다. 이런 상황에 적응하지 못한다면 직업을 잃을 수도 있고 밀려날 수도 있다. 비즈니스와 의학을 예로 들자면, AI를 발명하는 사람들이 비즈니스와 의학에 접목하는 것보다 지금 업계에 있는 사람들이 비즈니스와 의학에서 어떻게 AI를 활용할지 배워야 한다. 그래야 시대를 따라가고 기회를 잡을 수 있다. 특히 시니어급 직무를 가진 사람들은 AI를 접목하는 분야에서 이득을 가져다줄 것이다. *본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다. wongood@fnnews.com 주원규 이진혁 기자
2024-10-21 02:07:31