특별기고 |
조원희 법무법인 디라이트 변호사

조원희 법무법인 디라이트 변호사
조원희 법무법인 디라이트 변호사

[끝까지 히트 6호] 인공지능 기술의 지속적인 발전에도 불구하고 산업 전반에 걸쳐 인공지능이 게임 체인저가 되기에는 아직 시간이 많이 필요할 거라고 생각했다. 그런데 ChatGPT의 등장으로 모든 전망과 예측이 달라졌다. 먼 미래로 생각했던 기술이 곧 닥칠 현실이 되었다. 구글에서는 '바드'를, 메타에서는 '리마'를 출시했다. 우리나라에서도 네이버가 대규모언어모델(LLM)에 기반한 서비스를 곧 출시하겠다고 출사표를 던진 상태이다.

이렇듯 정부와 학계, 산업계 등 모든 분야가 산업이 인공지능 시대에 대비하느라 분주한 모습이다. 기대감과 우려가 사회 전반에 확산되고 있다. 지난 6월 14일 유럽의회 본회의에서 그간 많은 논란이 되었던 EU 인공지능법(ArtificialIntelligence Act)이 압도적인 다수로 가결되었다. 유럽의회 집행위원회와 회원국 이사회와의 합의가 마무리되면 이제 정식으로 발효된다. 2026년이면 EU 인공지능법이 시행될 것으로 예상되고 있다. 이제 유럽을 필두로 여러 국가에서 인공지능과 관련한 법률이 속속 제정·시행될 것이다. 드디어 인공지능 시대가 도래하고 있다고 할까.

인공지능에 대한 우려

인공지능에 대한 걱정이나 우려가 큰 것도 사실이다. 마이크로소프트의 부회장인 브래드 스미스(Brad Smith)는 ChatGPT를 처음 받아 들었던 때의 놀라움을 블로그에 표현하면서 "우리가 2033년경에나 예상했던 인공지능 개발결과가 2023년에 도달했다"고 말했다. ChatGPT를 개발한 회사의 임원 조차도 이렇게나 놀랐다니 소름 끼치는 상황이다. 인공지능 분야에는 싱귤래리티(Singularity, 특이점)라는 개념이 있다. 모든 인류의 지성을 능가하는 지능을 가진 초인공지능이 출현하는 시점을 의미하는데, 미래학자인 레이 커즈와일(Ray Kurzweil)은 이를 2045년으로 예상했다. 특이점에 도달하게 되면 인류는 초인공지능의 창조 능력으로 인해 더 이상 미래의 발전을 예측할 수 없다고 보고 있다. 그런데 ChatGPT의 등장 이후, 그 특이점이 예상보다 일찍 오고 있는 것 아니냐는 얘기들이 들리고 있다. 

그간 인공지능 기술에 대한 우려에 대해, 인공지능 개발자들이 선한 의지를 가지고 문제점들을 극복해 가며 기술을 긍정적으로 발전시켜 갈 것으로 기대했다. 그런데 불과 몇 달 사이에 우리는 그런 선한 의지는 인공지능의 상업적 성공 앞에서는 동작하지 않을 것이라는 두려운 사실에 직면하게 되었다. 마이크로소프트의 경쟁사라 할 수 있는 메타나 구글 내부에서 더 이상 윤리나 안전의 문제 때문에 출시 속도를 늦추지 말아야 한다는 목소리가 나오고 있다. 엄청난 부가 걸린 경쟁 앞에서 선의를 기대한다는 것은 불가능하다는 것을 우리는 경험적으로 알고 있다. 결국 인공지능 기술의 개발이나 서비스 운영에 대한 적절한 규제가 필요하다는 공감대가 형성되고 있다. 

인공지능에 대한 규제의 필요성

EU의 인공지능법이 규제를 표방하는 입법의 대표적인 예이다. EU 인공지능법은 포괄적인 인공지능에 대한 규제보다는 고위험 인공지능 기술에 집중하여 규율하고 있는데, 얼굴인식, 신용평가, 감정측정 등에서는 투명성과 데이터 이용이 엄격하게 제한되며, 이런 고위험 인공지능 기술을 이용하는 경우에는 법적 적합성 테스트를 거쳐야 한다. 위반하게 되면 엄청난 액수의 벌금을 부과받게 된다. 

그러나 이러한 규제가 우리에게 꼭 맞는 것은 아니다. 규제와 산업의 진흥을 동시에 도모해야 하는 우리나라의 상황에 맞는 법률이 필요하다. 우리나라에서도 지난 1월 14일, 발의된 지 1년 6개월 가량 지난 '인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안'이 부랴부랴 법안소위를 통과했다. 인공지능에 대한 규제와 산업육성이라는 두 마리 토끼를 잡기 위해 바쁜 걸음을 내딛고 있지만 무엇 하나도 쉽지 않은 상황이다. 이 법률안이 국회를 통과하면 '인공지능사회 윤리원칙'도 제정되고, 인공지능사회위원회도 개설되고, 민간자율인공지능윤리위원회도 설치된다. 아쉬운 것은 인공지능 글로벌 기업에 대한 적절한 통제장치가 없다는 것이다. 우리나라의 상황과 글로벌 시장에 대한 이해와 혜안이 필요하다. 유사한 규제의 답습이 아니라, 우리에게 꼭 맞는 법제화가 필요하다. 

인공지능 서비스에 대한 책임

그렇다면 인공지능 시대를 준비하기 위해 무엇을 해야 할까? 인공지능으로 인해 초래된 리스크를 파악하고 그에 대한 법률적·제도적 시스템을 마련해야 한다. 먼저 인공지능으로 인해 발생하는 책임은 누가 져야 하는지가 먼저 명확히 정리되어야 한다. 자율주행에 대한 기대가 한참 커가던 2016년 5월경 미국 플로리다에서 테슬라가 대형 트레일러와 충돌하여 운전자가 즉사하는 사고가 발생했다. 테슬라의 자율주행 시스템이 흰색 트레일러의 옆면을 제대로 감지하지 못해 발생한 사고였다. 사고로 인한 책임을 누가 져야하는지에 대한 공방이 있었다. 자율주행 모드 중 핸들 위에 손을 올려 놓으라는 경고를 7번이나 보냈지만 이를 제대로 따르지 않는 등 운전자의 과실이 인정되어 테슬라는 사고에 대한 책임이 없다는 결론이 났지만, 인공지능으로 인한 사고에 대해 누가 법적 책임을 부담해야 하는지는 계속 논란이 되고 있다. 

인공지능도 법적 책임의 주제가 될 수 있을까? 인공지능에 대해서도 사람과 마찬가지로 책임을 물을 수 있을지가 문제이다. 좀 이상하게 들릴 수도 있다. 그러나 법인을 생각해 보면 전혀 낯선 논의는 아니다. 왜 주식회사와 같은 법인에도 '법인격'이라는 걸 인정해서 책임의 주체로 삼았을까? 개인의 책임을 사업으로 인한 책임으로부터 분리하기 위해서였다. 그래야 손해 발생의 위험에도 불구하고 사업을 하지 않겠는가. 그리고 그것이 사회 전체적으로는 이익이라고 보기 때문이다. 인공지능도 마찬가지다. 인공지능도 주체성을 논의할 수 있을 정도로 개별화될 수 있다면 그리고 이를 이용하는 개인과 분리되어야 할 사회적 필요성이 제기된다면, 멀지 않은 미래에 인공지능에도 법인격이 부여되고 책임의 주체가 될 수도 있을 것이다. 최근 들어 인공지능에 대한 형사책임으로 새로운 데이터에 의한 재학습(리프로그래밍)이 논의되기도 한다. 

조원희 변호사는 인공지능에 결함이 있어서, 또는 학습 데이터에 오류가 있어서, 아니면 이용자가 잘못 활용해서 문제가 발생한다면 그 책임을 누가 져야 하는지 그 책임 관계가 정리되어야 한다고 전망한다.
조원희 변호사는 인공지능에 결함이 있어서, 또는 학습 데이터에 오류가 있어서, 아니면 이용자가 잘못 활용해서 문제가 발생한다면 그 책임을 누가 져야 하는지 그 책임 관계가 정리되어야 한다고 전망한다.

새로운 기술이 나올 때마다 책임 소재는 큰 문제였다. 음악이나 영화가 온라인을 통해서 유통되기 시작하자 불법 복제가 기승을 부렸다. P2P 서비스와 웹하드 서비스는 불법 파일의 유통에 일조했다. 불법 복제를 하고 이를 유통한 이용자 외에 P2P 서비스나 웹하드 서비스 제공자도 책임을 져야 할까? 게임 내에 유료 아이템이 등장하자, 유료 아이템을 거래하는 이용자들이 생겼고, 아예 아이템 거래를 편리하게 할 수 있는 거래소도 등장했다. 게임 이용약관에 의하면 게임 아이템의 거래는 약관 위반이다. 게임 아이템을 약관에 위반하여 사용한 이용자 외에 아이템 거래소도 책임을 져야 할까? 이러한 책임 문제가 명확하게 정리되지 않으면 적법한 시장은 생겨나기 어렵다. 

인공지능에 결함이 있어서, 또는 학습 데이터에 오류가 있어서, 아니면 이용자가 잘못 활용해서 문제가 발생한다면 그 책임을 누가 져야 하는지 그 책임 관계가 정리되어야 한다. 기존의 불법행위 법리나 제조물책임법으로 해결하기에는 모호한 지점이 많다. 인공지능 내에서의 결과 도출에 인과관계를 적용하기 어렵다. 문제의 원인을 찾기가 쉽지 않다는 것이다. 단순히 알고리즘을 일부 수정한다고 해결되지도 않는다. 인공지능 서비스에 관여하는 자들의 책임 내용과 범위가 보다 구체화되고, 이를 예방할 수 있고 피해를 보전할 수 있는 제도들이 마련될 때, 시장이 건강하게 성장할 수 있다. 이제 인공지능 시대를 준비하기 위해 법적, 제도적 인프라를 갖추어야 할 때이다.

인공지능 알고리즘에 대한 규제

그리고 인공지능 알고리즘 규제도 중요한 토픽이다. 알고리즘 이슈는 여러 서비스에서 논란이 되어 왔다. 선거 시즌이 돌아올 때마다 포털사이트의 뉴스 편집 알고리즘의 공정성이 이슈가 되었다. 유튜브를 비롯해 콘텐츠 추천 기능을 가지고 있는 서비스의 경우 콘텐츠의 편향성이 늘 문제가 되었다. 이용자들이 주로 시청하는 유형의 콘텐츠를 추천하다 보니 이용자들은 자기도 모르게 확증 편향을 가지게 된다는 주장이 있다. 현재와 같은 극심한 정치적 양극화의 원인으로 제시되기도 하고 가짜뉴스를 양산하는 동기가 된다고 설명된다. 앞서 언급한 ‘카카오T’ 서비스의 경우 지난 2월 공정거래위원회로부터 257억원의 과징금을 부과 받았다. 일반호출에 비해서 '블루' 서비스와 같은 가맹택시에 혜택을 주도록 배차 알고리즘을 조작했다는 이유에서다. 

인공지능의 경우는 알고리즘의 문제가 더 난해하다. 인공지능은 사전에 정의된 원칙에 따라서만 작동되지 않고, 데이터와 처리 결과의 상호작용에 따라서 계속해서 수정되기도 하고, 학습되는 데이터의 내용에 따라서도 결과가 달리질 수 있기 때문이다. 인공지능 서비스를 제공하는 사업자 조차도 어떤 알고리즘으로 결과 값이 도출되었는지를 설명할 수 없는 경우가 발생한다. 사례는 다양하다. 미국 아마존은 지난 2018년 인공지능 기반 채용 시스템이 성차별적 관행을 답습해 여성에게 불리한 평가를 한다는 사실이 알려져 개발을 중단하기도 했다. 우리나라에서도 2021년 인공지능 챗봇 서비스인 ‘이루다’가 혐오의 학습화 논란을 불러일으키며 서비스가 중단되기도 했다. 

상황이 이러다 보니 인공지능 알고리즘에 대한 규제도 현실화되고 있다. EU에서는 GDPR, 디지털서비스법, 인공지능법 등에 이미 도입되어 있다. 우리나라의 경우에도 지난 2021년 11월 '알고리즘 및 인공지능에 관한 법률안'이 발의되어 고위험군 인공지능에 대해서는 알고리즘 규제를 규정하고 있다. 

제약·바이오 산업과 인공지능

인공지능 기술의 활용은 제약·바이오 업계도 예외는 아니다. 진단의 영역에서 인공지능이 활용된 것은 오래 전 일이다. 지금은 실용성에 논란이 있지만 IBM의 왓슨은 인공지능 서비스의 대표 주자였다. 그러나 이제 인공지능 기술은 제약·바이오업계에서도 폭넓게 활용되고 있다. 특히, 신약 개발의 시간이나 비용을 획기적으로 줄여줄 수 있는 방법으로 다양하게 활용되고 있다. 

먼저 신약의 후보물질을 도출하는 단계에서 인공지능이 활용되고 있다. 방대한 연구 자료를 분석하고 병원의 진료기록을 검토함으로써 약물의 효능이나 부작용을 예측하여 신속하게 후보군을 탐색할 수 있다. 이를 통해 후보물질의 개발 속도와 효율성을 획기적으로 향상시킬 수 있을 것으로 보고 있다. 또한 임상단계에서도 인공지능의 역할은 중요하다. 각종 약물이나 단백질의 효능, 상호작용 등을 예측하여 임상시험의 안정적인 설계를 도와주며 그 과정에서 발생하는 시행착오를 줄여주는 역할을 할 수도 있다. 

또한 인공지능은 유전체 연구에도 큰 도움이 될 수 있다. 유전체 데이터 분석을 통해 질병의 유전적 원인을 찾거나 유전체 편집 기술의 개발에 활용될 수 있고, 연구자들이 유전체의 복잡성을 이해하고 새로운 연구 방향을 설정할 수 있도록 도울 수도 있다. 

인공지능 기술은 이제 필수

그간 인공지능 기술은 몇 번의 호황기가 있었으나 이내 다시 겨울을 맡곤 했다. 그만큼 실용화하기에 어려움이 있다 보니 기대감이 현실로 작용하지 못했다. 그러나 ChatGPT를 필두로 하는 생성형 인공지능 기술은 전혀 다른 세상을 만들어 버렸다. 이를 활용한 가시적인 성과들이 여기저기서 도출되고 있다. 이제 누구도 거스를 수 없는 흐름이다. 글로벌 인공지능 업체들 사이의 경쟁이 격화되면서 기술 개발의 속도도 더욱 빨라졌다. 또한 이를 활용한 인공지능 서비스도 다양하게 출시되고 있다. 향후 사업의 승패는 누가 얼마나 인공지능 기술을 제대로 활용할 수 있는지에 따라 결정될 수 있다. 제약·바이오업계에도 인공지능 기술의 도입에 더욱 관심을 가져야 한다. 인공지능 기술은 신약개발의 영역에서도 선택이 아닌 필수인 때가 도래하고 있다.

저작권자 © 히트뉴스 무단전재 및 재배포 금지