인사이트
이노핏파트너스의 노하우로 디지털 트랜스포메이션 시대의
‘산업별’ 핵심 지식과 트렌드를 큐레이션한 지식혜택
beneFIT 인사이트 | GPT-4o의 등장, 비즈니스에서 더 중요해진 '이것'?
AI의 '자율성' 문제는 비즈니스 환경에서 윤리적 도전과 리스크 관리의 중요성을 새롭게 부각시키고 있습니다.


#AI #GPT-4o
GPT-4o의 등장, 비즈니스에서 더 중요해진 '이것'?


최근 인공지능 기술의 발전은 비즈니스 환경에 혁신적인 변화를 가져오고 있습니다. 지난 5월 14일, 오픈AI에서 최신 대화형 인공지능 'GPT-4o'를 출시하면서 이러한 변화를 더욱 가속화하고 있습니다. 'GPT-4o'는 이전 버전보다 향상된 언어 구사 능력과 빠른 응답 시간으로, 기업들이 고객과의 상호작용을 더욱 자연스럽고 효율적으로 할 수 있도록 돕습니다. 실시간 동시통역, 수학문제 풀이, 얼굴 표정 인식, 시각장애인을 위한 주변 사물 파악 등 다양한 기능은 서비스의 질을 향상시키고, 새로운 비즈니스 기회를 창출할 수 있는 가능성을 열어줍니다.


그러나 AI의 '자율성' 문제는 비즈니스 환경에서 윤리적 도전과 리스크 관리의 중요성을 새롭게 부각시키고 있습니다. 자율성을 가진 AI는 기업의 운영 효율성을 극대화할 수 있지만, 통제력의 약화로 인한 예기치 못한 결과를 초래할 수 있습니다. 이는 고객 신뢰뿐만 아니라 기업의 생존 여부에도 큰 영향을 미칠 수 있으며, 잘못된 AI 사용은 법적 책임의 부담과 브랜드 이미지 손상을 초래할 수 있습니다.

기고전문가 소개

전창배 이사장

現 국제인공지능윤리협회 이사장 

現 WECON PTE. LTD. 대표

서울대학교 윤리교육과 졸업
오늘의 주제 :  GPT-4o의 등장, 비즈니스에서 더 중요해진 '이것'?

✅ 1. 인공지능의 자율성 문제가 중요한 이유

✅ 2. 비즈니스에서 꼭 가져가야 할 'AI윤리 가이드라인'  
✅ 3. '인공지능 윤리' 를 고려하라
1. 인공지능의 자율성 문제가 중요한 이유
자율성은 인간의 통제력 약화와 동의어이다.
인공지능에게 ‘자율성’을 부여한다는 것은 역으로 말하면 인공지능에 대한 인간의 통제력이 약화된다는 것을 의미합니다. 물론 현재는 인간이 AI에 대해 대부분의 통제력을 갖고 개발하고 사용하고 있지만 향후 인공지능이 ‘자율성’을 갖게 되면 인공지능은 스스로 판단하고 결정하고 행동하는 권한을 갖게 되어 인간이 제대로 통제하지 못할 경우 인간에게 큰 피해를 끼치는 예기치 못한 결과를 초래할 수 있게 됩니다.

예를 들어, 인간이 ‘칼’을 가지고 요리를 할 때는 ‘칼’이라는 도구는 맛있는 음식을 만드는데 매우 유용합니다. 하지만 만약 악인이 ‘칼’을 휘둘러 사람을 해친다면 매우 무서운 무기가 될 수 있습니다. 다만 현재는 그 책임이 칼이 아닌 그 ‘칼’을 악용한 사람에게 있기 때문에 책임의 소재가 명확하지만 만약 이 ‘칼’이라는 도구에 자율성을 부여한다고 가정해 보겠습니다. ‘칼’이 ‘자율적’으로 요리를 해준다면 인간은 편리하게 맛있는 음식을 가만히 앉아서 먹을 수 있게 될 수 있지만. 그런데 만약 자율성이 부여된 ‘칼’이 밖을 마음대로 돌아다닌다면? 인간의 안전에 큰 위협이 될 것이고, 피해를 입는 경우도 속출할 것이며, 무엇보다 책임소재를 명확하게 파악하기 어렵다는 것이 사회적으로 큰 문제를 불러올 수 있게 되고, 밖을 자유롭게 돌아다닐 수 없게 될 것입니다. 

따라서 기업에서 AI를 도입하거나, AI 기반의 비즈니스 모델을 기획할 경우 인공지능에 자율성을 부여하는 문제는 단순히 기술적인 문제의 차원에서 바라볼 것이 아닌 실제 도입 시 어떤 일이 일어날지에 대해 미리 논의하고 예측해야 할 것입니다. 이는 인간의 통제력과 안전, 그리고 책임 문제와 깊이 연결되어 있기 때문입니다. 인공지능이 자율성을 가지게 되면 그로 인해 발생할 수 있는 위험을 어떻게 최소화하고 통제할 것인지에 대한 철저한 논의와 대비가 사전에 필요할 것입니다.
2. 비즈니스에서 꼭 가져가야 할 'AI 윤리 가이드라인'
불필요한 문제를 막아주는 'AI 윤리 가이드라인'

일반적으로 위험하지 않은 AI와 로봇 제품에는 어느 정도의 자율성을 부여해주는 것이 인간에게 편리할 순 있습니다. 하지만 어느 정도 위험성이 따를 경우 자율성을 부여하되 ‘로봇 3원칙’과 같은 윤리성, 안전성이 확실히 적용이 가능하다는 전제조건을 세운 후 적용하는 것이 안전합니다.


미국의 과학저술가인 아이작 아시모프는 로봇 3원칙을 제시했는데요. 오래 전 나온 이론이지만 현재 AI에 이를 적용하는 것 또한 본질과 크게 다르지 않다고 생각되어 공유합니다.


  1. 제 1법칙: 로봇은 사람에게 해를 끼쳐서는 안 되며, 위험에 처한 사람을 도와야 한다.
  2. 제 2법칙: 로봇은 인간의 명령에 복종해야 한다. (단, 인간의 명령이 사람을 해치는 경우에는 예외로 한다.)
  3. 제 3법칙: 로봇은 스스로를 보호해야 한다. (단, 이 보호가 인간의 명령에 복종하지 않거나 사람을 해치는 경우에는 예외로 한다.)


일례로 고위험 인공지능의 대표적인 사례인 AI 무기와 킬러 로봇에는 결코 자율성을 부여해서는 안 됩니다. AI무기와 킬러로봇은 윤리성, 안전성이 확실히 적용된다 하더라도 외부의 공격에 의해 오류와 해킹 등이 일어날 수 있고 예기치 못한 대규모 인명피해가 발생할 수 있기 때문입니다.


위와 같은 맥락에서 AI와 로봇의 자율성을 부여할 때는 각별한 주의가 필요합니다. 기술의 발전이 인간의 삶을 편리하게 만들 수 있지만 그에 따른 위험을 간과해서는 안 됩니다. 특히 고위험 인공지능의 경우, 그 위험은 단순한 오류나 실수를 넘어 대규모 인명 피해로 이어질 수 있기 때문에 더욱 신중해야 합니다.

따라서, 인공지능 개발자와 정책 입안자들은 다음과 같은 몇 가지 중요한 원칙을 고려해야 합니다.


  1. 철저한 테스트와 검증: AI 시스템이 실제로 사용되기 전에 다양한 상황에서 철저한 테스트와 검증이 이루어져야 합니다. 

  2. 명확한 책임 소재 설정: AI 시스템의 자율적 결정으로 인한 사고나 피해가 발생할 경우, 책임 소재를 명확히 할 수 있는 법적, 제도적 장치가 마련되어야 합니다. 피해자 구제뿐만 아니라, AI 시스템의 설계자와 운영자가 책임감을 가지고 개발과 운영을 하도록 유도하기 위함입니다.

  3. 지속적인 모니터링: AI 시스템이 도입된 이후에도 지속적인 모니터링과 업데이트가 필요합니다. 이를 통해 새로운 위험 요소를 빠르게 파악하고 대응할 수 있을 것입니다.

  4. 윤리 교육: AI 개발자와 관련 종사자들에게 윤리 교육을 실시하여, 기술 개발의 모든 과정에서 윤리적 고려가 반영되도록 해야 합니다. 이는 기술의 남용을 방지하고, 인간 중심의 AI 개발을 촉진합니다.

  5. 투명한 의사결정: AI 시스템의 의사결정 과정은 투명하게 공개되어야 합니다. 사용자가 AI의 결정 이유와 과정을 이해할 수 있도록 하여, 신뢰성을 높이고 예기치 못한 상황에서 적절한 대응이 가능하도록 합니다.


결국, 기업에서의 인공지능 자율성 문제에 사회적, 윤리적 논의가 반드시 병행되어야 할 것입니다.

3. '인공지능 윤리' 를 고려하라
기술 개발보다 중요한 인공지능 윤리

인공지능은 실제로 자율성을 갖거나 자율성을 가진 것으로 오인될 수 있으며, 이러한 경우 모두 인간의 생명, 신체, 정신, 재산에 큰 영향을 미칠 수 있습니다. 따라서 이러한 AI의 개발과 활용은 매우 신중해야 합니다. 이때 반드시 필요하고 적용되어야 하는 것이 바로 인공지능 윤리(AI Ethics)입니다.


인공지능 윤리가 중요한 이유는 여러 가지가 있지만, 특히 기업의 차원에서 중요한 몇 가지 이유는 다음과 같습니다.


1. 신뢰와 명성 확보: AI 기술을 개발하고 사용하는 기업이 윤리적 기준을 준수하는 것은 소비자와 사업 파트너로부터의 신뢰를 얻을 수 있습니다. 이와 반대로, 윤리적 문제를 간과 시 기업의 명성이 크게 훼손될 수 있으며, 장기적으로 고객 이탈과 매출 감소로 이어질 수 있습니다. 또한 우리나라도 세계의 흐름에 따라 AI 윤리에 대한 규제를 강화하고 있고 법제화를 추진하고 있습니다. 따라서 막대한 벌금과 법적 소송전 등 행정적 리스크에 대한 대가를 크게 치를 수 있습니다. 이어질 수 있습니다.


2. 품질과 안전성 향상: 윤리적인 AI 개발은 제품의 품질과 안전성을 향상시킵니다. 철저한 윤리적 검토와 테스트 과정을 통해 오류와 오작동을 줄일 수 있으며, 이는 사용자에게 안전하고 신뢰할 수 있는 제품을 제공할 수 있습니다. 이는 결국 기업의 경쟁력을 높이는 요소가 됩니다.


3. 지속 가능한 성장: AI 윤리는 지속 가능한 성장을 위해 필수적입니다. 윤리적 기준을 준수하는 기업은 당장의 단기적인 이익보다 장기적인 성장을 추구하게 되며 건강하고 지속 가능한 성장 경로를 유지하는 데 도움을 줄 수 있습니다.


AI 할루시네이션, 어떻게 해결해야 할까?

예를 들어, 최근 생성형 AI의 가장 큰 윤리적 이슈 중 하나인 '할루시네이션'(hallucination, 환각) 문제를 들 수 있습니다. AI 할루시네이션이란 AI가 거짓을 이야기하는 것으로, 최근 ChatGPT와 같은 대화형 인공지능이 내놓는 결과물을 전적으로 신뢰하여 문제가 생기는 경우가 더러 발생하고 있습니다. 현재 AI 기술은 불완전하고 오류가 많기 때문에, AI 기술에 대해 100% 신뢰하지 않는 것이 중요합니다. 따라서 AI 기반의 비즈니스 모델을 가진 기업은 출시 전에 철저한 품질 검사 및 검증을 수행해야 합니다. 또한 소비자 역시 AI 기술의 불완전성을 인식하고 신중하게 사용해야 할 것입니다.


또한, AI 기술을 악용하여 범죄적 목적으로 사용하는 경우에는 법적 장치가 필요합니다. 최근 증가하고 있는 딥페이크 성범죄, 가짜뉴스, 보이스피싱 등 범죄에 AI가 악용되는 사례가 그 예입니다. 이러한 경우는 인간에게 큰 피해를 줄 수 있는 고위험 인공지능에 해당합니다.

따라서, AI 기술의 개발과 활용에 있어 윤리적 기준을 확립하고, 이를 준수하는 노력이 필수적입니다. AI가 인간의 삶을 개선하고 안전하게 사용할 수 있도록, 기술적 발전과 함께 윤리적 고려와 법적 장치가 병행되어야 합니다.

인공지능을 도입하고, 인공지능을 기반으로 비즈니스를 운영하는 것에 있어 결국 ‘AI윤리’ 문제가 중요하며, 의사결정의 기준 역시 결국 ‘인간의 행복’과 ‘존엄성’을 기준으로 결정해야 할 것으로 보입니다. 아무런 논의와 합의 과정 없이 자율성을 가진 AI가 등장하기 전, 지금부터 개인과 기업 차원에서 우리 모두가 AI의 자율성 부여 문제를 고민하고 연구할 때입니다.
글 / 국제인공지능윤리협회 전창배 이사장
정리 / 이노핏파트너스 마케팅팀