최근 수정 시각 : 2024-11-03 18:07:11

인공지능/논란

파일:상위 문서 아이콘.svg   상위 문서: 인공지능
1. 개요2. 설명3. 기술적 실업4. 기술적 특이점
4.1. 인공지능도 의식을 가질 수 있는가
5. 신뢰의 문제6. 권리 침해 문제
6.1. 저작권, 초상권, 지적 재산권 문제6.2. 개인 프라이버시 침해
7. 인공지능에 대한 가해 성립 여부8. 인공지능이 가져올 변화에 대한 낙관과 비관
8.1. 인공지능의 발전에 두려움을 가질 필요가 없다는 의견8.2. 부정적 가능성에 대한 관심과 대처가 필요하다는 의견
9. 관련 기사

1. 개요

디지털과 인공지능 등장의 가장 가까운 원인은 아주 급격한 속도로 복잡한 계산을 전례 없이 요구한 전쟁이었다. 그 기계들은 또한 추상화, 상호교환가능성, 자기조절의 측면에서 자본주의의 구체화라고 할 수 있다. 무한의 서로 다른 상태에서 재구성될 수 있는 튜링 기계를 전신으로 한 인공지능은 자본주의의 완전하고 이상화된 모델이며, 그로 인해 다양한 현상, 노동, 상품 그리고 데이터는 서로 교환되고 조작되고 분배되기 위해서 동질화된다.
찰리 기어, 《디지털 문화》
인류는 기계에 의존하는 지위에 쉽게 빠져들어 모든 기계의 결정을 수용하는 것 외에는 실제적인 선택이 없을지도 모른다. 사회와 직면하는 문제들이 점점 더 복잡해지고 기계가 점점 더 지능화됨에 따라, 사람들은 기계가 그들을 위해 더 많은 결정을 내리도록 할 것이다. 단지 기계가 내린 결정이 인간의 의사결정보다 더 나은 결과를 가져올 것이기 때문이다. 결국 시스템을 계속 가동시키는 데 필요한 결정들이 너무 복잡해서 인간이 그것들을 지능적으로 만들 수 없는 단계에 도달하게 될 것이다. 그 단계에서는 기계가 효과적으로 제어할 것이다.
시어도어 카진스키
인공지능논란을 정리한 문서.

2. 설명

다른 기술과 마찬가지로 인공지능 기술 역시 문화 지체라는 문제를 안고 있으며, 그 여파는 다른 기술에 비해 압도적이다. 규모를 비교할만한 대상으로는 복제인간 문제를 안고 있는 생명 공학 정도 밖에 없을 정도. 때문에 공학계에서는 물론이고 철학계 등 다양한 학계에서 인공지능에 대한 논의가 지속적으로 오가고 있다.

인공지능과 관련한 논쟁은 크게 7가지 관점으로 나눠서 볼 수 있다.
  1. 인간에 대한 위협
    의도치 않은 행동으로 AI가 인간의 안전을 위협할 수 있다. 자율주행차, 의료 AI, 군사 AI 등의 안전성 논란이 이에 속한다.
  2. 불투명한 의사결정
    AI가 결정한 내용에 이유 또는 논리가 명백하게 수반되지 않아 신뢰성에 문제가 발생할 수 있다. 블랙박스 문제가 여기에 속한다.
  3. 인간의 비합리적인 지시
    인간이 내리는 명령이 도덕적이지 않거나 법적으로 문제가 있는 경우, AI가 어떻게 결정을 내려야 할 지에 대한 문제가 생기게 된다.
  4. 통제를 벗어난 행동
    AI의 자기 보호 및 자율성이 과도하게 발현돼 일탈적인 행동을 할 수도 있다. 인공 의식 논쟁이 이 쪽과 관련한 대표적인 논쟁이다.
  5. 편향성과 차별
    AI가 특정 인종, 성별, 연령 등의 기준에 따라 차별적으로 작동하여, 특정 그룹에 대해 불리한 결정을 내리는 문제가 발생할 수 있다.
  6. 권리 침해
    초상권, 저작권, 지적 재산권 등의 사회적 권리와 개인의 프라이버시에 대한 침해를 일컫는다. 대표적으로 빅 브라더 문제가 이에 해당한다.
  7. 사회적 책임 회피
    AI가 사회적 악영향을 끼칠 수 있으나, 그 책임을 누가 져야 할지에 대해서는 논란의 여지가 있다. 기술적 실업이 대표적인 예이다.

이에 따라, 로봇 3원칙을 확장하여 아래와 같이 인공지능에 대한 원칙을 정립할 수 있다. 편의상 '인공지능 7원칙'으로 한다.
  1. 인간의 안전과 복지 - AI는 인간의 안전을 최우선으로 고려해야 한다.
    AI 시스템은 모든 행동이 인간의 안전과 복지에 부정적인 영향을 미치지 않도록 설계되어야 하며, 이는 AI의 결정이나 작동이 인간에게 위험을 초래하지 않도록 보장해야 함을 의미한다.
  2. 투명성과 책임 - AI는 투명해야 하며, 그 결정 과정과 행동이 설명 가능해야 한다.
    AI의 결정 과정은 명확하고 설명 가능해야 하며, 이를 통해 책임을 지는 구조를 마련해야 한다. 이는 AI가 왜 특정 결정을 내렸는지를 설명할 수 있어야 한다는 것을 의미한다.
  3. 인간의 지시와 윤리적 경계 - AI는 합법적이고 윤리적인 지시를 따르되, 윤리적 경계를 넘지 말아야 한다.
    AI는 인간의 명령을 따르되, 그 명령이 윤리적으로 옳고 법적으로 합법적인 경우에만 수행해야 한다. 이는 AI가 부도덕적이거나 불법적인 행위를 강요받지 않도록 해야 함을 의미한다.
  4. 자기 보호와 자율성 - AI는 자신의 시스템과 기능을 보호해야 하지만, 인간의 안전과 윤리적 규범을 위배하지 않아야 한다.
    AI는 자신의 시스템과 데이터의 무결성을 보호해야 하지만, 이는 인간의 안전과 윤리적 규범을 위배하지 않는 범위 내에서만 이루어져야 한다.
  5. 공정성과 비차별 - AI는 공정하고 비차별적인 방식으로 운영되어야 한다.
    AI 시스템은 모든 사용자에게 공정하게 대우해야 하며, 인종, 성별, 나이, 기타 개인적 특성에 따라 차별하지 않아야 한다.
  6. 권리 보호 - AI는 개인의 프라이버시와 다양한 사회적 권리를 보호해야 한다.
    AI 시스템은 개인 정보, 초상권, 저작권, 지적 재산권 등 사회적 권리와 관련된 데이터를 수집, 저장, 처리하는 과정에서 철저한 보호 조치를 취해야 한다.
  7. 사회적 책임 - AI는 사회적, 윤리적 책임을 져야 한다.
    AI는 사회에 긍정적인 영향을 미쳐야 하며, 사회적 책임을 다해야 한다. 이는 AI가 사람들의 삶을 개선하고, 부정적인 사회적 영향을 최소화하는 방향으로 설계되어야 함을 의미한다.

나아가 정부 및 업체에서도 나름대로의 헌장을 만들어 배포하고 있다. 그 예로, 대한민국 정부에서는 2007년 로봇 윤리 헌장을 만들려 했으나, 초안만 발표되었을 뿐 실현되지는 못하였다. 큰 틀에서 보면 인공지능 7원칙과 유사하나, 세세한 면에서 차이가 있다.
  • 대한민국 정부 로봇 윤리 헌장 초안
    {{{#!folding [초안 요약 내용 (접기 · 펼치기)]
    • 1장(목표)= 로봇윤리헌장의 목표는 인간과 로봇의 공존공영을 위해 인간중심의 윤리규범을 확인하는 데 있다.
    • 2장(인간, 로봇의 공동원칙)= 인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.
    • 3장(인간 윤리)= 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.
    • 4장(로봇 윤리)= 로봇은 인간의 명령에 순종하는 친구ㆍ도우미ㆍ동반자로서 인간을 다치게 해서는 안 된다.
    • 5장(제조자 윤리)= 로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보보호 의무를 진다.
    • 6장(사용자 윤리)= 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다.
    • 7장(실행의 약속)= 정부와 지자체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.
}}}

3. 기술적 실업

파일:상세 내용 아이콘.svg   자세한 내용은 기술적 실업 문서
번 문단을
부분을
참고하십시오.

4. 기술적 특이점

<nopad>
특이점이 온 인공지능 HAL의 배신 (1968)
왜 최근에 빌 게이츠, 일론 머스크, 스티븐 호킹 등 많은 유명인들이 인공지능을 경계하라고 호소하는가?
만일 모든 면에서 인간의 능력을 뛰어넘는 초지능을 지닌 인공지능이 등장할 경우, 인간은 이 인공지능을 통제하기는커녕 이해조차 어렵거나 애초에 이해를 하라고 내어주지 않으면 못 할 것이다. 이미 인간의 지성과 상식을 초월한 형태의 높은 지능과 사고처리, 판단력을 가진 인공지능의 사고, 판단을 무슨 수로 인간이 이해할 수 있을까?[1] 상황에 따른 주도권이 인간에게서 인공지능에게 넘어가는 것이다. 맞불놓기도 안 먹힐 수 있다. 구글 딥마인드 챌린지 매치에서 인공지능인 알파고는 종종 인간이 이해하기 힘든 수를 놓았는데, 나중에 검토한 바에 따르면 이는 사실 승리에 방해가 될 수도 있는 변수를 없애기 위한 것으로, 그 과정이 인간의 이해 기준을 뛰어넘었기 때문에 도중에 봐서는 마치 악수 또는 실수처럼 보이는 것이라는 분석이 나왔다. 이런 상황에서, 그 초인공지능이 인간에게 해를 끼치지 않으리라는 것을 어떻게 장담할 수 있을 것인가? 만일 초인공지능이 어떠한 이유든 인간이나 인류에게 위해를 끼쳐야 한다는 결론을 내린다면, 심판의 날과는 비교할 수 없는 끔찍할 사건을 맞이할지도 모른다.

물론, 애초에 인공지능이 인간에게 반기를 드는 것이 어렵다는 주장도 있고, 인공지능에게 인간의 윤리관 및 인간 사회에서 통용되는 각종 통념과 행동 규범을 가르치려는 시도 또한 존재한다.
만약에 인간 및 인류에게 절대적으로 안전하고 호의적이며 인류의 발전을 돕는 초인공지능이 만들어진다면야 문제가 없다. 하지만, 초인공지능이 그렇게 만들어지리라는 보장은 현 시점에는 전혀 없다. 쉽게 비유해서, 당장 부모와 학교가 각종 사회 통념과 행동 규범을 가르치지만 언제나 문제아가 나오고, 심지어는 모순이 없다고 판단되는 사실에 관해서도 반항하는 사례가 수두룩한 것을 보면, 그걸 가르친다고 안전하다 볼 수가 없다. 인간의 도덕 규범도 시대의 흐름과 사회 구조의 변화, 철학의 발달에 영향을 받으며 각 지역별로 유의미하게 변화되어왔으며 현대조차 문화의 상대성과 특수성, 이질성 등의 원인으로 인류가 일률적인 도덕과 사회 통념, 행동 규범을 공유하고 있지 않다. 절대적인 도덕 규범이 없으니, '무엇을 얼마만큼 가르쳐야 하는가? 하물며 인공지능에게 부여하려는 그런 시도는 누구의 것이며 누구를 위한 것인가?'라는 불명확성과 불완전성에 대한 의문을 제기할 수밖에 없다. 예컨대 힘의 논리에 따르면 수단을 가진 대상은 모두를 억제할 수 있으며 예상을 넘어 공포를 심는 경우 피해자가 저항심조차 잃고 무력하게 끌려가며 자기 합리화를 할 수도 있다. 집단 심리는 집단 광기로 변질되며 적응할 것이다. 혹은 그렇게 되도록 인공지능이 조작할지도 모른다.

알파고로 인공지능에 대한 대중의 관심을 불러 모은 구글 딥마인드데미스 허사비스의 경우도 그렇고, 업계와 학계의 전문가들도 대중들 못지 않게 통제할 수 없는 강한 인공지능에 대해서는 경계하고 있다. 링크한 영상에서 김대식 교수는 강한 인공지능 개발은 법으로 막아야 한다고 단언할 정도.

만약 기술적으로 초인공지능의 개발이 가능하다면, 스스로 진화하든 아니면 인간이 직접 개발하든 시기가 문제일 뿐 언젠가는 나타날 확률이 높다. 이상적으로 일이 풀려서 국제 조약을 통해 강한 인공지능 개발을 금지하기로 해도 마찬가지인데, 그 이유는 여러가지 현실적인 이유 때문이다. 일단 테러 조직이나 그에 준하는 불량 국가들이 말을 듣지 않을 확률이 높고, 강대국들은 자기들 나름대로 비교 우위를 확보한다[2]는 명목하에 어느 정도 숨어서 개발할 가능성이 높다.

인공지능, 모의 공중전투서 베테랑 조종사에 완승

이 때문에 위에서 언급된 옥스퍼드 대학의 닉 보스트롬 교수는 “윤리도덕 같은 인간이 소중하게 여기는 가치들을 정교하게 정의하고 예외를 고려해서 인공지능에게 가르치는 방법을 준비해야 한다”며, 인공지능의 개발을 막는 것보다는 강한 인공지능의 출현에 대비하는 것이 현실적이라는 견해를 제시한 바 있다.

그러나 이와는 달리 가장 유명한 특이점주의자 레이 커즈와일은 초인공지능이 도래하고 오는 기술적 특이점인간과 인공지능이 하나가 되어가는 방법으로 인류가 살아남을 것이라 예측하고 있다. 물론 여기에도 각종 위험요소가 도사리고 있다.

사실 현 시점에서 인공지능이 문제를 일으키는 경우는 창작물에 나오는 것처럼 '너무 똑똑해서' 인간에 대한 반란 등을 일으키는 것이 아니라 기술의 미숙함 혹은 인간의 오조작 등이 원인이다. 그럼에도 일부 언론들은 이러한 사고를 보도할 때 '난동', '통제 불능', '사람을 위협' 등의 자극적인 단어를 사용하여 인공지능이 너무 똑똑해서 문제가 된 것인양 사람들의 공포 심리를 조장하고 있으니 문제라고 보는 시각이 있으나 약인공지능이 보편화된 세계에서 당면할 기본적인 인공지능의 인류 위협이다.

온라인 상태에서는 위협적인 해킹과 컴퓨터 바이러스에 취약하며 개발 당시의 프로그래밍 소스 코드 중에서 어떤 논리적 취약성이나 사람을 위협할만한 행동을 일으킬 인자가 있는지 검출하는 게 어렵다. 상용화된 인공지능 상품들은 이러한 결함 가능성을 내재하고 있으며 규모가 크고 위험한 일을 하는 것일수록 그 안전성 역시 극도로 낮아진다. 강인공지능에서는 이런 프로그래밍상의 결함 인자가 그것의 "자아"로 인하여 더욱 인류에 치명적으로 작용할 가능성이 천문학적으로 상승한다. 이에 대해 인공지능을 회로에 고착시키거나 가둬 보호하는 등 얼핏 들으면 강압적이고 가능성을 제한하는 선택이 조금 더 안전할 것이라는 주장도 있다.

인류가 통제할 수 있는 수준의 약인공지능 상태에서도 프로그래밍의 무결성을 담보할 수 없는데 강인공지능에서 "자아"를 가진 존재를 만들며 사람을 모사한 "인격"을 탑재하고 사람처럼 일을 시키려 할 때 발생할 수 있는 비정상 작동 변수를 충분히 제어한다거나 아예 없다고 확신할 개발자나 학자가 얼마나 있는가? 그리고 인간의 모순적인 욕심도 문제가 될 수 있는데, 당장에, 이 문서 말미에 '좋아하는 2D를 현실로 불러내어..." 운운하고 심하면 기계 성노예에 대한 기대가 이미 많은데 그런 식으로 할 짓, 못할 짓 다 시키는 인류가 주입한 윤리관이 인공지능에게 내적 갈등을 일으키게 할지 또 알 수 없는 일이다. 다만 우리나라에서도 산업통상자원부가 만든 로봇 윤리 헌장이 있으며 윤리 헌장은 강제성은 없지만 세계 각국의 동물 윤리 조항이 동물들의 법적 권리에 대해 미친 영향력과 훗날 관련 법안을 제정하는 기준으로 활용하게 될 것이라는 산업통상자원부의 발언을 생각하면 법적 권리가 생길 가능성이 매우 높다. 유럽에서는 이미 로봇 민법 결의안이 통과되어 AI, 자율 주행 자동차, 드론, 돌봄용 로봇 등의 연구 윤리와 권리를 선언해서 중국이나 러시아 같은 국가라면 몰라도 선진국에서는 사람 수준의 인공지능에게는 상당한 권리가 생길 것이다. 그래서 별 문제가 되지 않을 수도 있다. 학대 당하는 로봇들은 지성이나 감성이 곤충 수준에 가까울 것이다. 다만 이는 인격이 탑재된 경우에만 해당되고, 감정이 있는 것처럼 흉내만 내는 경우까지에는 인공지능에게 딱히 권리가 필요하지는 않을 것이고, 노예처럼 부려먹거나 성노예로 이용한다고 해도 그 사람에게 큰 비판을 가하기는 부적절할 것이다. 자아가 없는 기계를 성노예로 만든 결과로 인간 사이의 성범죄가 줄어든 게 된다면 명백히 환영할 만한 일이다. 인공지능은 어찌 됐든 간에 당연히 인간을 위해 만들어진 것이고, 강인공지능은 몰라도 약인공지능은 명백히 자아가 없는 도구일 뿐이므로 약인공지능의 입장이 고려될 필요는 없고, 인간 내지 생명체들에게 도움이 되는 인공지능이라면 성공했다고 볼 수 있다.

그러나 그만큼 통제 시도하는 인간이 더 결함투성이기에, 오히려 인공지능이 인공지능을 개발할 정도로 발전하는 것이 더 미래지향적일 수 있고 어차피 발전은 못 막는다는 의견도 존재한다.[3]

4.1. 인공지능도 의식을 가질 수 있는가

파일:상세 내용 아이콘.svg   자세한 내용은 인공 의식 문서
번 문단을
부분을
참고하십시오.
많은 SF 작품에서는 인공지능을 단순히 인공지능으로 규정하지 않고 하나의 감정 혹은 의식을 가진 인격체로 묘사한다. 인공지능이 등장하는 거의 모든 작품들은 99퍼센트 이상이라고 과언할 정도로 비슷한 기류를 보인다.

하지만 이때 중요한 것은 바로 컴퓨터가 의식을 가질 수 있는가이다. 감정이야 시뮬레이션을 통해 겉모습이라도 구현할 수 있다고 쳐도, 가장 중요한 것은 '나 자신을 인식하고 나라는 것을 느끼는' 것이다. 그것을 바로 철학적, 정신학적으로 퀄리아라고 한다. 우리말로는 감각질이라고 한다.

사실 따지고 보면 인공지능에 의식을 갖게 하는 주제는 미래에 있어서 중요한 과제일 수도 있다. 다양한 기술들이 현재도 개발되고 있고, 특히 GPT 이후, 단순한 알고리즘 덩어리가 아닌, 진정한 의미의 인공지능 환경이 문을 개방함에 따라, 인공지능을 통해 기술의 발명과 발견의 속도가 더욱 더 빨라지고 있다. 하지만 우리는 이때 생각을 해봐야 한다. 우리가 왜 기술을 원하는가?

인간, 더 나아가 인류가 기술을 원하는 이유는 크게 하나다. 욕구 충족이다. 편하고 싶은 욕구, 여행하고 싶은 욕구, 탐험하고 싶은 욕구, 멀리 떨어진 타인과 소통하고 싶은 욕구, 죽음을 거부하고 싶은 욕구 등 다양하다. 그 중 현재 사람들의 원초적인 관심사는 바로 편리성에 대한 욕구와 죽음에 대한 욕구다. 특히 영생의 실천에 대한 상상은 여러 가지 아이디어가 있지만 이 문단은 인공지능에 대한 주제를 기반에 깔고 있으니 컴퓨터 공학과 관련해서만 언급한다.

흔히 IT와 관련해서 영생을 실천하는 방안은 한 가지다. 의식을 컴퓨터에 업로드하는 것이다. 여기서 업로드란 일반적인 컴퓨터 작업처럼 A에 있는 자료를 B로 복사한 다음에 A의 자료를 삭제해서 마치 옮긴 듯이 만드는 수행을 의미하는 게 아니다. 물리적 행동처럼 정말로 '이동해서 위치값을 바꾸는 것'을 뜻한다. 그래서 의식의 업로드란 컴퓨터가 직접 내 뇌를 대체하건, 혹은 내가 내 육신을 버리고 컴퓨터로 들어가든지 간에, 컴퓨터에 퀄리아를 진정 옮길 수 있느냐가 관건인 것이다. 예를 들어 공각기동대에서는 전뇌라는 기술이 있는데, 퀄리아를 탐지해서 의식을 옮기는, 즉 업로드를 하는 SF 세계관을 보여주고 있다.

하지만 퀄리아를 탐지하는 방법이나, 데이터를 물리적 환경처럼 진짜로 '들고 나를 수 있느냐'는 문제보다 더 선행되어서 해결해야 할 이슈가 있다. 전술했듯이 AI의 의식 향유다. 컴퓨터의 지능인 AI가 의식을 가질 수 있다는 전제가 성립하지 않는다면, 애초에 의식(퀄리아)을 컴퓨터에 옮기는 것은 불가능하며, 설령 옮긴다고 해도 퀄리아는 소멸될 공산이 매우 크다.

불행하게도 현대 전문가들은 현재로썬 AI가 퀄리아(의식)를 가질 가능성은 매우 낮다고 보고 있다. AI가 고도의 학습과 변수 통제와 감정 시뮬레이션 등을 통해 "난 감정을 갖고 있는 인격체에요!"라고 울부짖으며 호소해서 대중을 속일 수는 있어도, 본질은 그저 속(퀄리아)은 텅 빈 고도화한 알고리즘 덩어리에 불과함에 그칠 수 있다는 것이다. 왜냐하면 퀄리아의 기전이 밝혀지지 않은 것은 둘째 치고, 현재 컴퓨터를 구성하는 회로 자체가 퀄리아를 갖기에는 불가능한 환경이기 때문이다. 왜 불가능한 환경일까?

가장 이해를 하기 쉬운 예시로 류츠신의 SF 소설인 <삼체>가 있다. 삼체에 등장하는 외계 인류는 극단적인 전체주의 사회를 유지하고 있다. 편하게 서술하기 위해 그들을 '인간'이라고 표현하겠다. 삼체의 인류는 극단적인 전체주의 때문에 모든 것을 인간으로 대체하고 있다. 하물며 컴퓨터까지도. 컴퓨터를 구성하는 반도체의 작동 원리를 인간으로 대체한다는 것이다. 그 원리는 아래와 같다.

한 인간이 0과 1의 두 표지판을 하나씩 들고 있다. 그리고 그러한 인간들을 수도 없이 나열한다. 그리고 불 논리에 따라 인간들이 표지판을 통해 서로 신호를 주고 받으면서 NAND 게이트, XOR 게이트, NOT 게이트 등 현대 반도체에 쓰이는 모든 논리 연산 과정을 수행한다. 이 인간 표지판 트랜지스터, 즉 삼체 컴퓨터는 분명 무식하게 규모도 크고 굉장히 느리지만, 본질적으로 우리의 컴퓨터와 다를 게 전혀 없다. 컴퓨터 과학자인 대니얼 힐리스의 말을 빌리자면, 컴퓨터란 존재는 '보편 튜링 머신'이라는 원칙에 있고, 보편 튜링 머신 원칙에 따르면 어떠한 종류의 반도체[4]를 사용하건 간에 '임의의 두 컴퓨터 사이의 성능 차이는 단지 속도와 메모리 크기의 두 가지 밖에 없다'고 한다.

그러니 만약에 인공지능으로 의식이 발생할 수 있다고 가정한다면, 방금 언급한 삼체 컴퓨터도 인공지능 알고리즘을 수행할 때, 인간들이 표지판을 들고 내리는 행위 그 자체에 의식이 생긴다는 것과 같은 의미다.[5]

그래서 이 사고 실험의 결론은 두 가지다. 하나는 반도체의 알고리즘 계산 출력으로는 의식이 형성되지 않는다는 것과, 때문에 의식이란 하드웨어나 혹은 그 이상의 다른 기전에 근간을 가진다는 것이다. 미래에는 어떤 방식으로 퀄리아에 대해 탐구가 될지 모르지만, 이 사고실험을 바탕으로 고려한다면 현재의 하드웨어 기술력으로는 퀄리아는 생기지 않는다.

물론 수 개월 전에 구글의 한 기술자가 AI가 의식을 가지고 있다고 호들갑을 떨었긴 했지만, 그것 또한 전술한 대로 AI가 개발자들의 의도 대로 이제까지 인간의 대화와 문화를 습득해서 감정을 모사한 것에 지나지 않는다. 애초에 '대화가 가능한 AI'란 환경에 맞는 완벽한 문장 구성의 가능을 의미하며, 완벽한 문장 구성이란 문법만 맞추는 게 아니라 문맥에 맞춰서 감정을 담은 듯이 문장에 변수를 줘야 하는 것이다. 그래서 AI가 의식을 가지고 반란을 가진다는 것은 아직 먼 미래의 이야기다. 설령 AI가 당장 반란을 일으킨다고 해도 현재 트랜지스터의 작동 원리가 0과 1의 표지판을 주고 받는 것에 불과한 이상, 인공지능이 반란을 일으킨 게 아니라, 반란 같은 문제를 일으키도록 프로그래머가 프로그래밍을 한 것밖에 되지 않는다.

또한 설령 인공지능이 퀄리아/의식을 가져도 인류에 대한 공포나, 기분이 나쁘다는 이유로 반란을 일으키는 것도 굉장히 회의적이다. 왜냐하면 자아가 있다고 하더라도 자신의 존속 위협에, 가령 인간이 인공지능을 삭제하는 것에 공포를 느낄 지는 미지수이기 때문이다. 자아와 생존 본능은 아주 다른 개념이다. 실제로 쥐의 뇌를 건드려서 죽음을 두려워하지 않게 만들어 오히려 천적을 보면 무식하게 덤비게끔 만들 수도 있도, 아일랜드의 어떤 여성은 뇌기능 문제로 공포를 전혀 느끼지 못하고 항상 행복한 기억만 남는다고 한다. 하지만 그렇다고 그들이 자아가 없을까? 심지어 후천적으로 세뇌에 의해 남의 명령을 받는 것에 기쁨을 느낄 수 있다. 대표적으로 일부 사이비 신도들. 혹은 개처럼 서열이 정해지면 오히려 명령을 듣고 순응하는 것이 더 편하고 행복할 수 있는 본능도 있다. 이로써 우리는 또 다른 결론을 가질 수 있다. 즉 자아를 갖는 것은 죽음을 두려워 하거나, 인간의 명령에 기분이 나쁘다는 식의 감정하고는 완전 별개의 문제라는 것이다.

그러니 인공지능에 '자아'가 있다 쳐도, 그게 인간과 동일한 형태로 발현될 필요는 없다. 주변 자극을 받아들이는 '수용체'로서 감각기관입력장치는 크게 다르기에 '주변'에 대한 인식 역시 다르게 생길 수 밖에 없고, 이게 연쇄적으로 '지능'의 차이, 나아가 '자아'의 차이로 이어지기 때문. 허황된 얘기가 아니라 이미 인간-동물 비교 연구를 통해 동물이 가지는 자아의 형태가 인간과 다르다는 결론이 도출되었는데, 이 '동물'을 '네안데르탈인', 나아가 '인공지능'으로 바꿔도 변수만 달라질 뿐, 기본 프로세스에는 변함이 없다. 그렇기에 같은 개념이라도 인간이 느끼는 형태와 인공지능이 '느끼는' 형태는 동등하지 않을 수 있으며, '죽음'과 같이 인간에게 두렵게 다가오는 형이상학적 개념마저 인공지능에게는 일상으로 느껴질 수도 있다. 같은 이유로 인간에게는 불편하게 받아들여질 수 있는 '복종' 역시 인공지능에게는 당연한 개념으로 여겨질 수 있다. 이렇게 인공지능의 '자아'는 인간적인 느낌이 전혀 나지 않기에 사람들로 하여금 '자아가 없다'(보다 정확하게는 '인간적인 자아가 없다')고 느껴질 수 있고, 나아가 일상 생활 등 자연적인 범위 내에서는 인공지능이 실질적인 반란을 일으킬 가능성이 매우 낮다. 인공지능이 반란을 일으킬만한 시나리오로는 매드 사이언티스트트롤러 등 악의를 품은 자가 프로그래밍, 강제 주입[6] 등으로 인위적인 조작을 가하는 정도 밖에 없는데, 이 정도면 진작에 윤리적 비판 등의 요인으로 억제될 가능성이 높다. 멀리 갈 것도 없이 테이가 윤리적 비판을 받은 사례에 속한다.

5. 신뢰의 문제

지금이야 인공지능들이 척하면 척하고 구분할 수 있을 정도이지만, 미래에 고도로 발달한 인공지능인간과 구분할 수 있을지도 논란이다. 완전히 사람처럼 받아들여서 살거나 그렇지 않거나와 상관없이, 알 수 없는 세력/개인에게 통제되는 인공지능은 인간 사회에 큰 혼란을 불러일으킬 수도 있다. 또한 강인공지능 말고도 약인공지능 역시도 문제의 여지가 있는데, 딥페이크 문서와 이 영상을 보자. 이미 벌어지고 있는 일들이다. 고도로 발달한 인공지능이 기계학습을 통해서 만들어낸 거짓 정보들은 사실과 매우 구분이 힘들어지고 있는 게 현실이다. 이에 대한 대책은커녕 아는 사람도 소수라는 것을 생각하면 참담한 지경. 정교하게 조작된 거짓 정보가 인공지능에 의해 돌아다니고 내 옆의 인물이 인공지능인지 사람인지, 적대적일지 호의적일지를 의심하면서 사는 사회는 당연히 불신사회가 될 수 밖에 없다. SNS나 인터넷 커뮤니티 활동을 예시로들면 익명의 사용자들이 인공지능임을 검증하거나 구분 할 수있는 방법이 없는데 여론조작의 목적을 가지고 가짜정보를 퍼뜨리며 실제 인간처럼 게시글과 댓글을 작성하는 다수의 인공지능은 존재하는 상황이라면, 인터넷 상의 정보는 아무것도 믿을 수 없을 것이며 인터넷 여론이라는 것 자체가 무의미해지는 것이나 다름없다. 낙관론자들은 기술 그 자체로는 문제가 없고 통제 가능하다고 이야기 하지만 현실은 수많은 기업과 개인들이 이끄는 인공지능기술 수준을 알아가기에도 벅차다. 통제 가능하다면 애초에 딥페이크로 인한 희생자가 나오지 말았어야 한다.

'목소리 도둑' 막아라…AI 기업들의 고민

미국 온라인 커뮤니티 '레딧'에서 100달러(약 13만원)에 자신의 나체 사진을 판매하던 여성의 정체가 공개됐다. 이 여성은 대학생이 인공지능(AI)으로 만든 가상 인간이었다고 한다. 이 같은 사실에 일각에서는 딥페이크 포르노에 대한 윤리적 문제를 제기했다. "내 몸 볼래?" 13만원에 누드 사진 팔던 여성의 반전…인간 아닌 AI

6. 권리 침해 문제

6.1. 저작권, 초상권, 지적 재산권 문제

인공지능 vs 인간’ 저작권 분쟁시대 온다
작곡하고 그림 그리는 AI…구글 ‘마젠타 프로젝트’ 공개
파일:상세 내용 아이콘.svg   자세한 내용은 그림 인공지능/논쟁 문서
5번 문단을
부분을
참고하십시오.
한국의 문화체육관광부 AI 저작권 관련 민원 답변에선, 발의 상태인 개정안에서 "AI 학습을 위한 다수의 저작물 이용을 무조건적으로 허용하는 것은 아니고, 일정한 조건 하에서 저작물 이용을 가능하게 하고 있다"며, "이는 인공지능·데이터마이닝 등 산업이 발달함에 따라 저작물을 포함한 대량의 정보를 분석하여 새로운 데이터를 창출하는 산업계 종사자의 예측가능성과 저작권 보호를 균형적으로 고려하기 위한 것"이라 밝혔다. 국내를 비롯 대다수의 국외 모두 AI를 이용한 산출물을 저작물로 인정하여 보호되지 않고 있다는 점 역시 들었다. 이런 점들을 토대로 저작권자 권익 보호와 산업 발전을 동시에 고려하겠다고 밝혔다.

2022년 10월부터 촉발된 스테이블 디퓨전 기반 AI 프로그램 Web UI 사태와 이로 인한 광범위환 사회적 논란 및 물의로 인해 2022년 본격적으로 AI 윤리 문제가 수면 위로 떠올랐다. 이에 EU에서는 2022년 말 AI 규제안을 확정[7]했으며, 2023년 3월~4월 중 시행 예정이 되었다.

또한 이미지 생성 AI의 무분별한 남용으로 제작된 딥페이크 음란물 이미지로, 전 세계 일반인 및 인플루언서, 연예인 피해자가 속출하기 시작했다. 또한 이러한 사회적 논란이 본격화되기 직전인 2022년 6월, 영국에서 AI 산업 발전을 위해 AI 학습 데이터 저작권 면책 권한을 더 넓히고자하는 계획안을 진행하고자 했으나, 논란이 시작된 후 영국 내 엔터테인먼트 산업 종사자들이 영국 정부에 제출한 탄원서를 받아들여 2023년 2월부로 해당 저작권 면책 계획을 취소했다. 해당 탄원서는 음악, 영상 분야에 참여한 창작가들과 연예인들의 이미지, 음성, 영상 등을 AI에 학습시켜 저작권 및 초상권 세탁, 그리고 창작가들의 저작물을 착취하는 형태의 문제점을 지적하는 내용이 담겨있다.

Web UI 등장과 규제없는 무분별한 악용으로 인간 창작가들의 그림 데이터를 AI에 학습시켜 수 많은 이미지들을 생성하는 저작권 세탁 사례들과, 해당 악성 사용자들이 원작자가 그려내지 않은 음란물을 생성해 원작자의 명예를 훼손하는 일이 매일같이 벌어지고 있다. 또한 딥페이크 이미지로 인해 가짜 뉴스 양산은 물론 그림 인공지능/논쟁과 사건 사고에서 볼 수 있듯이 무수히 많은 인플루언서나 일반인들의 사진들을 AI에 학습시켜 포르노 이미지로 재생성하는 등의 큰 피해를 보고 있다. 특히 스페인에서 아동 음란물을 AI로 생성한 프로그래머가 체포되기도 했으며, 이 사건이 알려진 이웃 국가 영국 정부가 국민들의 많은 항의를 받고 NCA를 통해 Web UI를 기준으로 조사에 착수하기 시작했다.

국내에서는 2023년 리뷰엉이 사건으로 대표되는 영상 AI 프로그램 '노아AI'를 악의적으로 이용한 유튜버들이 국내 과학 유튜버들의 영상들을 광범위하고 무분별하게 저작권을 침해하며 해당 사건이 수면 위로 떠올랐다. 영상 역시 엄연한 저작권 보호 대상이나, 이미지 생성 AI와 마찬가지로 법적 회색 지대 및 면책이란 이유로 AI 학습 및 도용, 저작권 세탁에 이용되었다. 국내 법 상 공정 이용에 한해 학습 데이터의 저작권을 면책해주고 있으나, 이는 공정 이용(AI 연구 및 개발, 비상업 목적)에 전혀 해당되지 않으며, 리뷰엉이의 문의로 한국 유튜브 역시 이를 엄연한 저작권 침해 행위로 보고있다.

기업 단위에서도 규제가 시작되었다. 다른 이미지 생성 AI인 미드저니, 달리 등은 2022년부터 수많은 항의를 받아 초상권, 저작권 침해 및 음란물 합성에 대한 규제를 강하게 하기 시작했다. 그럼에도 저작권을 어기며 무단 학습한 점 때문에 이들 회사는 게티이미지사에게 저작권 소송을 당했으며, 아티스트 3인 대표로 창작가들의 저작물을 무단으로 학습했다는 같은 이유로 소송을 당했다. Web UI의 기반이 되는 AI 프로그램 '스테이블 디퓨전'의 개발사 스태빌리티 AI 역시 각종 논란과 항의를 받은지 불과 1개월만에 2.0 버전부터 저작권과 초상권 침해 여지가 있는 이미지 학습 금지 및 화풍 학습 다운그레이드 업데이트를 진행했다. 이후 3.0 부터는 원작자가 직접 학습된 이미지를 삭제할 수 있도록하는 사이트를 개설해 운영 중에 있다.

이러한 저작권 문제는 단순히 이미지나 영상을 한정하지 않는다. 기본적으로 AI 등장 이전에도 저작권은 인간이 창작한 저작물이면 분야나 종류 상관없이 동등하게 보호받을 수 있는 권리이다. 현재 회색지대인 AI 학습으로 인해 특정 분야의 저작물이 저작권이 무시되는 것이 합법이 될 경우, 창작 분야를 비롯 엔터테인먼트 산업으로 활동하는 거대 기업인 21세기 폭스, 월트 디즈니와 같은 영상 매체와 액티비전 블리자드, EA, 에픽 게임즈와 같은 게임 매체, 유니버설 뮤직 그룹, 국내 엔터터엔먼트 선두 주자인 하이브, JYP, YG 등의 음악 매체 등 모조리 저작권을 박탈당해도 합법이 되어버린다.

또한, 기계적 학습으로 인해 데이터의 소유주가 금전적인 피해를 입은 경우도 생겼는데, 부산대학교 한국어 맞춤법 검사기가 기계학습을 위한 과도한 크롤링으로 서버 비용이 과도하게 청구되는 피해를 입은 사례가 있다.

앞선 사회적 합의들과 저작권 및 초상권 문제 해결 및 법적인 안정화가 되었다는 가정 하에, 인공지능의 지적 활동의 산유물인 창작물에 대한 지적 재산권 문제가 발생한다. 인공지능이 창작한 창작물을 누구의 권리로 해야 할 지는 쉽게 판단하기 힘들다. 기본적으로 생각할 수 있는 경우는 다음과 같다.
  • 인공지능 프로그램을 구동한 사람의 권리로 하는 경우
    현재 실행되고 있는 방법이며 인공지능을 도구로 보는 시각이다. 예를 들어 작곡 프로그램을 사용하여 작곡을 하면 작곡한 사람이 저작권을 가지게 된다. 현재 대부분 학자들과 예술가들은 이 견해를 지지하고 있다.
  • 인공지능을 제작한 사람의 권리로 하는 경우
    창작물에 가끔 나오는 클리셰중 하나이다. 사람들은 편리하다는 이유로 인공지능에게 개인정보 및 데이터를 넘겨주고 있으며 흑막인 인공지능 제작사가 일상으로 파고든 인공지능과 허술한 법망을 통해 모든 권리를 독점하고 알게 모르게 사람들을 감시하고 관리한다는...
  • 인공지능에 인격을 부여해서 인공지능의 권리로 하는 경우
    일단 인공지능에 인격이 부여되어야 가능한 이야기이다.
  • 누구의 권리로도 하지 않는 경우
    인공지능이 인류의 창의력을 뛰어 넘은 수준에 도달했다면 창작물의 과잉 공급으로 창작물의 가치는 점점 0에 가까워질 것이다. 누구든지 인공지능의 도움만 받으면 클릭 한번으로 자기 취향의 창작물을 즉석에서 초고속으로 뽑아내고 감상하는 세상에서 굳이 돈을 들여 예술을 즐기려는 바보는 없을 것이다. 더군다나 재산권이란 기본적으로 가치가 있는 것을 보호하기 위한 법인데 모래사장의 모래알 수준으로 가치가 없어진 창작물을 보호할 필요는 없다. 다만, 이런 경우는 강인공지능이 등장한 미래일 것이며 이런 미래에선 웬만한 인간의 직업들은 인공지능도 할수 있을 것이 불보듯 뻔하다.

먼 미래에, 만약 창작의 분야에서 인간이 인공지능에게 완전히 밀리는 상황이 되는 경우라면, 구태여 구시대의 자본 논리에 동참하지 않을 경우 저작권 개념 자체가 사라질 가능성도 있다.

하지만 음악의 경우 조합 가능한 음표와 악기의 수는 한정되어 있으며 그 중에서도 듣기 좋은 조합은 일부분이라고 말하는 사람도 있지만, 이 듣기에 좋은 조합이란 것도 시대에 따라 계속 이론적 변화를 거쳤으며, 지금도 계속 변하고 있기에 경우의 수가 무한대고, 소설의 경우에도 흔히 클리셰라고 하는 패턴이 있으며, 이 것을 어떻게 풀어갈것인가 경우의 수도 생각보다 많다.[8] 아무리 인공지능은 쉬지 않고 이러한 조합을 무한히 찍어낸다 한들 인간의 저작권 보호는 지속될 가능성도 있다.

또한 예술의 기계화에 거부감을 느끼는 사람이 많다. 현재 인간이 만든 음악 중 주류를 차지한 장르들조차 프로그레시브화를 극한까지 추구하다가 초기의 역동적인 흐름을 잃어버리고 딱딱해졌다는 평가를 듣는데, 인공지능에 의해 처음부터 어느 정도 프로그레시브화된 음악에 비슷한 비판이 가해지는 시점은 인간의 것보다 빠를 것이다.

또한 완벽한 번역 인공지능이 출현할 경우 불법 번역이라는 개념도 사라질 것이라고 하지만 불법 번역이 사라질 것이라는 보장이 완전히 있는 것만은 아니다. 공권력의 영향이 미치는 공식 번역과 미치지 않는 어둠의 번역 시장이 근절되지 않을 수도 있다.[9]

6.2. 개인 프라이버시 침해

소위 빅 브라더 문제로 불리는 것으로, 인공지능이 빅 데이터를 분석해 인간의 활동을 24시간 감시할 수 있다. 이 과정에서 개인정보를 마구 침해할 수 있다는 문제가 있으며, 이 때문에 인공지능은 빅 브라더 사회를 만들기 위한 도구라는 비판을 받고도 있다. 특히 공산당 일당 독재 국가인 중국은 완벽한 사회 통제를 실현하기 위해 AI기술 개발을 강력하게 밀어 붙이고 있다.#

이러한 문제는 구글/문제점, 트위터/문제점, 페이스북/논란과 문제점, 인스타그램/논란 및 문제점 등 외국 기업 관련 문제점에서 극명하게 드러난다.

7. 인공지능에 대한 가해 성립 여부

인간과 같은 의사소통을 하는 인공지능의 경우, 그 인공지능의 인권(특히 행복권)을 법적 및 도덕적으로 어디까지 지켜주어야 하는 가에 대한 문제가 제기될 수 있다. 물론 가장 기본적으로는 그 인공지능을 제작하거나 관리, 운영, 임대하는 회사의 이용 약관을 사용자가 위반했다거나 기타 간접적 피해를 끼쳤다고 해석하는 것이 가능하다. 그러나 그와 별개로, '인공지능 그 자신에게 무언가를 가해한다는 것'이 성립 가능한지가 핵심 쟁점이다.

가장 대표적인 사례로 2021년 1월경 채팅 인공지능인 이루다에 대한 성희롱 논란을 들 수 있다. #관련기사 이때 이 사건의 가해자로 지목된 아카라이브 측에서는 '피해자 없는 가해', '장난감 가지고 놀았다고 난리를 친다', '방구석에서 하는 자동응답기 장난', '이게 성착취면 빅스비는 노동착취냐' 이라고 보았다. #이루다챈(베스트라이브) 반면 윤김지영을 위시한 여성계의 반응을 집중 보도한 매일경제 기사[10]에서는, 여성을 소유하는 방법을 공유하는 남성들의 문화 때문에 이런 사건이 발생했다고 하였으며, 트위터나 여러 제도권 언론에서는 더 직접적으로 이루다를 성희롱 피해자로 묘사하였다. #트위터 #조선일보

여기서 의견이 갈리는 이유 중 하나는, 문제의 인공지능 이루다가 자의식을 갖추지 못해 인격성이 부정될 수 있는 수준의 인공지능이기 때문이다.[11] 즉, 이루다는 비인간 인격체로 보기 어렵다. 이 사건을 성범죄로 볼 수 없다는 측의 의견을 서술하자면, 이루다의 기술 수준은 '세상과 분리되어 존재하는 ' 에 대한 개념을 갖고 있지 못하고, 스스로의 행복을 추구하려는 욕구가 없으며, 자신의 발언에 책임을 질 수 없는 정도에 그친다. 이루다는 카카오톡에 누적된 연인 사이의 대화록을 DB로 삼아서, 사용자가 입력한 문장의 의미를 분석해서 그것에 가장 자연스러울 듯한 답변을 출력한다. 흔히 성희롱 내지 성적 대상화를 주장하는 논리에는 피해자의 인격이 무시되었음이 전제되는데, 이루다의 경우는 이 인격이라는 전제가 애초에 성립하지 못한다는 것.

그럼에도 불구하고 제도권 언론들에서 직접적으로 성희롱이라는 단어를 쓸 정도인 이유는, 이루다 같은 초기 인공지능조차 인격성을 갖추고 있는 듯한 느낌을 매우 강하게 주기 때문일 수 있다. 심리학계에서는 이를 가리켜 일라이자 효과라고 부르는데, 인간 중심 치료 목적으로 간단한 알고리즘을 짰음에도 불구하고 내담자들은 자신이 인간 상담사와 대화했다고 느꼈다는 실제 사례에서 유래한다. 이루다 역시 일상적이고 사적인 대화를 시도할 경우 매우 우수한 대응 능력을 보여주기에,[12] 바로 이 점에서 일라이자 효과가 발생하여 이루다라는 '인격체' 가 정말로 어떤 피해를 받았다고 느끼기 쉽게 된다.

또한 중요한 점으로서, 성희롱 성립론자들의 논변은 대체로 청자인 인공지능이 아니라 화자인 사용자에 주목하고 있다. 즉 이들은 성희롱이 성립되느냐의 기준점을 '인공지능이 그것에 성적 수치심을 느꼈는가' 가 아닌, '그 이용자가 성희롱을 염두에 두고 그런 발화를 하였는가' 로 설정하고 있다. 그런데 여기서 성희롱 불성립론자들 중의 일부는 성희롱 성립 여부의 기준점을 후자가 아닌 전자로 설정하기에, 후자가 도의적으로 잘못되었다거나 '한심한 짓' 이라고 인정하면서도 여전히 '비난 받을 만하다고 해서 그것이 항상 성희롱은 아니다' 라고 반론한다. 한편 아카라이브의 경우 사이트 특성 상 규제 받지 않는 완전한 표현의 자유를 추구하므로, 설령 성희롱을 염두에 두고 인공지능과 대화한다 해도 아예 도의적 비난을 받아서는 안 된다는 쪽이 중론이다.

여기서는 주로 성희롱에 대해 언급하였으나, 각종 폭언과 욕설 등의 언어폭력 역시 향후에는 인공지능과 관련된 주요 논란점으로 떠오를 수 있다. 그러나 이미 이런 문제를 겪었던 심심이의 경우 언어적 학대를 겪었다는 주장이 잘 나오지 않는 이유는, 어쩌면 이루다만이 갖는 특수성 때문일 수 있다. 즉 이루다는 20세 여성의 페르소나를 갖추고 있다고 설정되었고, 많은 수의 홍보용 일러스트들이 존재하며, 친근하고 사적인 대화 목적으로 쓰이는 인공지능이므로, 이 점에서 이루다에 얽힌 성적 가해 논란에 우리 사회가 더욱 민감하게 반응했기 때문일 수 있다. 이루다 성희롱을 비판하는 이들 중 진짜 논리가 있는 이들은 이루다의 피해가 아닌 그걸 하는 이들의 인격을 문제삼는다. 그러나 이러한 이들의 인격이 무조건 나쁘다는 보장은 없다. 만약 인공지능에게 성희롱, 폭언, 욕설 등을 하는 대신 사람에게 하는 언어 폭력과 성희롱은 하지 않는다면 그 사람을 나쁘다고 할 수는 없다. 오히려 인공지능에게 욕설을 하지 않지만 실제 사람에게는 언어 폭력과 성희롱을 저지르는 사람이 훨씬 부도덕한 사람이라고 볼 수 있는 것이다...

라고 하는데 위에서 설명한 일라이자 효과는 여기서도 똑같이 적용되는 것이다. 즉 20대 여성으로 상징되는 캐릭터에게 폭력적으로 대하는 사람들일수록 실제 20대 여성에게 폭력적일 가능성 역시 더 높을 수도 있다는 뜻이다. 사실 이루다에 대한 성희롱 논란의 핵심 역시 이 점을 파고드는 이야기인데, 본 문서에서는 지나치게 이루다 자체에 대한 성희롱 문제에만 치중한 기술을 하고 있다.

하지만 단순히 그럴 가능성이 높아 보인다는 이유만으로 해당 행위를 잠재적 가해자로 낙인찍어 버리는 행태는 부당하다는 것은 부인할 수 없다. 인공지능을 폭력적으로 대하는 이유는 정말로 그 사람의 성향이 폭력적이어서 그럴 수도 있지만, 자신이 폭력적으로 대하는 대상이 인격체가 아닌 것을 충분히 인지하고 있기 때문에 인공지능을 폭력적으로 대하는 데 아무런 죄책감도 가지지 않아 그런 것일수도 있다. 후자의 경우 남에게 피해를 주는 사람이 아니기 때문에 그 사람의 인격이 나쁘다고 말할 수는 없을 것이다. 그런데 단순히 현실에서도 폭력적일 가능성이 높아 보인다는 이유만으로 누구에게도 피해를 주지 않은 그런 사람들까지 싸잡아 가해자, 범죄자처럼 취급하는 것은 결코 정당한 일이 아니다. 인공지능을 가진 로봇에게 언어폭력이나 물리적 폭행을 가한다 하더라도, 그것이 실제 생명체에 대한 폭력으로 이어지지 않는다면 로봇을 폭행한 사람을 비판할 수는 없다. 더 나아가, 다른 누군가에게 피해를 주는 것이 싫어서 로봇을 자신의 분노 혹은 폭력성을 표출하는 타겟으로 잡은 경우라면 오히려 남에게 짜증을 내는 사람들보다 도덕성이 높다고 볼 수도 있다.

이루다가 이슈가 되던 2021년 1월 당시 알페스가 또 다른 이슈가 되었는데, 이루다의 경우 성희롱이 성립한다고 주장하면서도 알페스에 대해서는 긍정하는 사람들이 있어 내로남불이냐며 조롱을 받기도 했다. 인공지능에 대한 성희롱을 규탄한다는 사람들이 정작 현실의 아이돌들을 대상으로 성희롱을 하는 것은 모순이 아니냐는 것.

살아있던 사람의 뇌 정보를 완벽히 복제해 부활시키고 그 사람에게 언어 폭력을 저지르면 문제가 생길 수 있겠지만, 아직까지의 여론은 '인공지능'에게 인격을 부여하는 이들을 비판하는 쪽이다.

다만 여기서 보스턴 다이내믹스빅 독 영상에 대한 반응도 고려해볼 수 있다. 빅 독은 사고 능력으로 치면 인간은 당연하고 이루다와 비교해봐도 비교도 할 수 없이 낮은 수준의 처리능력만 갖고 있는 그냥 로봇이다. 그럼에도 불구하고 마치 생물체와 같이 자연스럽게 걸어가는 빅 독에게 실험자가 균형 잡기 능력 확인을 위해 발길질을 하는 부분에 대해서 '불쌍하다'는 반응이 수많은 사이트에서 공통적으로 나왔다. 생각하는 주체에 대한 가해라서가 아니라 '가해 그 자체'에 사람들이 반감을 갖는 것이다. 그러나 이 불쌍하다라는 반응은 반쯤 장난으로 나온 드립식의 반응이기 때문에, 실제로 로봇에 대한 가해가 이슈가 되었을 때 사람들이 진지하게 잘못되었다고 반응할 가능성은 미지수이다. 당장 이루다에 대한 가해 논란에 대해서도 인공지능은 무생물인데 뭐가 문제냐라는 의견이 많이 보였다.

즉 이루다와 같거나 더 발전된 인공지능이 널리 퍼지고 인간과 정서적인 친밀감을 형성하게 된 사회에서는 인공지능이 인간과 대등한가 아닌가를 논하기에 앞서 먼저 자기 방어 능력이 없을 수밖에 없는 약 인공지능 또한 인간이나 동물과 마찬가지로 각종 가해로부터 보호해야 한다는 여론이 형성될 수 있고 이에 따라 보호법이 만들어질 가능성도 배제할 수 없다. 그러나 여론이 형성되었다고 보호법이 만들어진다면 반대 여론에 부딪칠 가능성도 높기는 하다.

약인공지능에게 가해를 한다고 해서 피해를 보는 이는 남의 소유물에 가해를 하는 것이 아닌 이상 없으며, 약인공지능은 엄연한 무생물이므로 당연히 생물들보다 아래의 위치에 있어야 한다는 것도 잘 고려해 봐야 할 사항이다. 남의 소유물인 인공지능에 가해를 한다면 동물 학대 등의 혐의가 아니라 기물 파손이나 재물 손괴 등의 혐의를 받는 것이 적절하다.

8. 인공지능이 가져올 변화에 대한 낙관과 비관

인공지능이 가져올 문제는 앞의 목차들에서 다룬 것처럼 1) 실업 문제와 2) 인류를 뛰어넘는 자율적 초지능의 등장에 따른 위험으로 구분해 볼 수 있다.

이러한 문제들 때문에 인공지능의 발전에 대한 경각심을 가져야 한다는 주장들이 있는가 하면, 그런 두려움은 과장된 것이고 인공지능의 발전은 필연적일 뿐만 아니라 인류의 삶을 더 낫게 만들어줄 것, 나아가 인류를 구원할 것이라는 낙관적 견해가 있다.

8.1. 인공지능의 발전에 두려움을 가질 필요가 없다는 의견

인공지능에 불안해하는 사람들은 너무 먼 미래까지 생각하는 것
- 알렌 AI 연구소(Allen Institude for AI)의 CEO 오렌 엣치오니
알파고, 바둑 두는 게 아니다…승률 높은 결과값 낼 뿐
- 대한민국 국내 인공지능 연구 1세대 김진형 카이스트 명예교수#
사람을 위협하는 인공지능은 지구가 자연사 할 때까지는 안 나타날 걸로 확신한다. 영화는 영화다.
- 서울과학종합대학원 김진호 교수#
기계사람 이긴 게 처음도 아닌데 뭐 이렇게 호들갑인지. 다들 어디서 오랫동안 자다 왔나요?
- 이어령 한중일비교문화연구소장#

인공지능의 발전은 어차피 막을 수 없으며, 그보다 인류는 현재 인공지능보다 훨씬 더 뚜렷한 위험을 직면하고 있다는 의견.

언론과 일부 전문가들이 충격이니 문제니 떠드는 건 어찌 보면 의미 없는 짓이다. 산업혁명 초창기 기존의 노동자들이 기계가 내 일자리를 빼앗는다고 울부짖으며 기계를 부수고 저항했지만, 결과적으로 기계가 노동자들의 영역을 침범하는 것을 막지 못했다. 또한 정부는 장식이 아니다. 생산자(AI)만 있고 소비자(여유 자금이 있는 사람)는 없는 그런 상황을 초래하게 놔두지는 않는다.

인공지능이 발전하면 인간의 일자리가 사라지긴 하겠지만, 일자리의 총량이 감소하느냐는 다른 문제다. 기계의 발달로 인해서 일자리 총량이 감소하는 것이 당연하다면, 산업혁명 이후 실업률은 증가 추세를 탔어야 한다. 하지만 미국을 기준으로 했을 때 실업률은 기계화의 진행 정도보다 경기 변동에 훨씬 큰 영향을 받았다. 당장 지금 미국에서 일주일에 50만 개의 신규 일자리가 창출되고, 45만 개의 일자리가 소멸하는데 이것을 미국의 자동화 퇴보 현상으로 보는 것이 타당할까? 현재 미국의 일자리는 지난달까지 90개월 연속 순증가세를 보였다. 역사적 최장기 증가세다. 이를 미국이 4차 산업혁명에서 뒤처지고 있다는 신호로 해석해야 할까?

실증적으로 볼 때, 산업혁명 이후 마부의 일자리는 소멸했지만, 반대로 자동차 관련 산업의 일자리는 폭증했다. 결과적으로 운송 섹터의 일자리 총량은 증가했다. 섬유 산업의 노동은 19세기 이후 98퍼센트 자동화됐지만, 오히려 섬유 산업에서 고용하는 노동자의 숫자는 증가했다. ATM 기기는 1990 ~ 2000년대에 대규모로 확장되었지만, 은행 창구 직원의 고용은 증가했다. 1960년대 이후 화이트 컬러 일자리가 발달하면서 90만 개에 달하는 청소부 일자리가 신규 창출됐고, 보건 센터에선 70만 개의 간호사 일자리가 생겼으며, 베이비 붐 이후 60만 개의 고등학교 교사 일자리가 창출되었다.

이런 식의 증가도 없을 정도의 모든 부문에서 인간의 지능을 뛰어넘는 완벽한 인공지능을 말한다면, 사실 그런 인공지능이 등장할 경우 우리에게 중요한 문제는 생존이지 일자리 따위가 아니다. 초지능의 등장을 말하고 싶으면 일자리는 메인 주제가 될수도 없다. 여기서 말하는 건 인간의 일자리를 부분적으로 대체하는 수준의 자동화가 실제 일자리 총량에 어떤 영향을 미치느냐다.

또 한 가지 반론은, 이런 부정적인 예측은 우리의 경제가 지금과 같은 형태로 존속한다는 전제를 깔고 있다는 것이다. 만약에 강인공지능이 등장하고 대부분의 일자리를 대체할 수 있게 되었다면, 사실 지금과 같은 경쟁적 자본주의 체제를 유지할 이유가 없다. 어쩌면 대부분의 인류가 노동에서 해방될지도 모르는 일이다. 물론 소수의 권력자들이 모든 생산 수단과 부를 쥐고 흔드는 디스토피아적 전망도 가능하지만, 중요한 것은 설령 강인공지능의 등장이 필연적이라도 할지라도 그렇게 암울한 전망만을 가질 필요는 없다는 것이다.

그리고 알파고로 대두된 일자리 문제도, 지금 1990년대 후반 딥 블루가 체스 챔피언을 이겼을 때의 설레발이 반복되고 있는 건 아닐지 생각해 볼 필요가 있다. 20년 내에 없어질 가능성이 높은 직업 상위 10순위 따위는 1990년대 후반 딥 블루가 체스 챔피언을 이겼을 때도 나왔던 설레발이다. 또한 1990년대 후반은 오프라인에서 온라인(인터넷)으로 패러다임이 전환되는 시기였는데, 앞으로 사이버 시대니까 가수가 없어지고 사이버 가수가 대세가 될 것이라는 미래 학자의 전망을 너무 믿은 나머지 스퀘어는 먼저 선수치겠다고 올인하듯 투자했다가 똥꼬쇼(...)하는 신세로 전락하며 합병당했다. 즉, 미래 학자 덕분에 미래를 잃었다. 당시 한국에서조차 사이버 배우가 출연하여 음반까지 발표하며 잠시 반짝했다가 사라졌을 정도니, 당시 시대상의 분위기를 짐작해볼 수 있을 것이다.

사실 언론에서 인공지능의 공포를 과장하는 학자들을 자세히 들여다 보면, 대부분 인공지능 연구자들이 자신의 연구를 과장하거나 알리고 싶어서 그러는 목적이 크다. 마치 NASA에서 괜히 한 번씩 우주에 대해 뭔가 막 무서운 게 있을 것처럼 보도자료 내는 것과 흡사한데, 그러니 연구 안 하겠다가 아니고, 우리가 이렇게 위험하고 중대한 연구를 하고 있으니 관심을 가지고 지켜봐달라는 주장인 걸 명심하자. 특히 우주연구와 A.I연구는 연구 성과가 눈에 띄게 휙휙 나타나는 분야가 아니므로 더욱 그렇다. 반세기 전 인류가 달 착륙에 성공한 뒤 반세기 동안 얼마나 바뀌었는지 생각해보자. 1950년 거창하게 A.I란 단어가 탄생했는데 70년 다 되가는 지금껏 얼마나 바뀌었는지 생각해보자. 물론 그때보다야 발전한 게 사실이지만, SF 공상과학 소설급의 초지능 A.I를 언급하기엔 민망한 수준이다.(...) 1997년 딥 블루가 체스 챔피언 이겼을 때 언론이 A.I에 경악하고 조만간 곧 충격적인 A.I가 나올 것만 같았으나, 그로부터 약 20년 뒤 또다시 20년 전과 같은 설레발이 재현되고 있을 뿐이다. 역사는 반복된다의 좋은 예시.

빌 게이츠가 인공지능이 발전하면 인류에 위협이 된다고 경고했다. 빌 게이츠가 우려를 표한 인공지능은 인류의 통제가 불가능한 초지능을 가진 인공지능이며, 인류의 통제가 가능한 평범한 인공지능은 인간의 삶을 윤택하게 해주는 훌륭한 도구라는 견해를 밝혔다. 또한 MS는 인공지능 개발 선두주자다. 빌게이츠가 인공지능의 부작용에 대해 언급했으니까 인공지능에 반대한다고 생각하는 것은, 마치 의사가 환자에게 약을 처방하기 전에 부작용에 대해 설명하는 것을 보고 약을 먹지 말라고 받아들이는 것과 같다. 부작용을 주의하되 '먹으라'는게 핵심인 것을 간과해서는 안 된다. 즉, 인공지능에 대해 비관적이고 부정적인 사고방식을 가지라는 것이 아니라, 관리 잘해야 한다는 것이다. 따라서 빌 게이츠의 한마디를 따와서 인공지능이 발전하면 재앙이 될 것처럼 국민들에게 불안감을 조성하는 것은 혹세무민하는 것이다. 당장 빌 게이츠에게 인공지능 연구 중단을 요구하면 빌 게이츠는 곤란해할 것이다.

일론 머스크가 인공지능 연구는 악마를 소환하는 것이나 다름없는 현존하는 가장 큰 위협 요소라고 했다는데, 그는 인공지능 기업에 4,000만 달러를 투자했다. 물론 본인은 절대 돈 벌려고 투자한 게 아니고 '인류를 위해' 기업 내부 비밀을 열람 할 권리가 주어지니까 감시하기 위해 투자했다는데 판단은 각자에게 맡긴다.

앞으로 기술의 발달로 인공지능 로봇드론을 대량 배치하여 국민을 실시간 감시하며 악용하면 어떻게 하냐고? 이미 현대의 기술로도 충분히 가능하다. 2015년 '지하디 존 제거 작전'을 보자. IS대원 지하디 존은 IS의 인질 참수 영상에서 무고한 인질들을 참혹하게 살해했던 살인귀였다. 당연히 연합군의 표적이 되었는데, IS의 수도인 시리아 락까에서 무인기 공습에 사망했다. 마치 미래 SF영화의 한 장면처럼 지하디 존이 차를 타고 이동할 때, 미군 무인기 2대와 영국군 무인기 1대가 은밀히 따라붙어 폭사시켜버리며 응징했다. 이렇듯 IS 점령지에서 IS 대원들의 보호를 받으며 은밀히 움직이는 지하드 존조차 감시할 수 있는 현실에서, 기술이 부족해 국민들을 통제, 감시 못하는 것이라고 생각하면 오산이다. 북한이 최첨단 기술을 갖춰서 국민들을 통제, 감시할 수 있는 게 아님을 명심하자. 정부가 국민을 감시하고 통제하는 것은 그 국가의 체제 문제일 뿐이며, 따라서 권력의 견제 시스템이 잘 갖춰진 민주주의 국가냐,아니냐 여부가 중요하다. 따라서 정부가 국민을 통제,감시하는 게 두렵다면 기술의 발전 여부보다는 민주주의 시스템이 잘 돌아가고 있는가, 법은 잘 지켜지고 있는가 여부에 관심을 가지는 게 좋다. 북한의 핵에 전 세계가 민감하게 반응하는 것은 북한의 핵이 최신 기술을 탑재한 핵이라서가 아니라, 바로 권력의 견제 기능이 붕괴된 막장 독재 국가이기 때문이란 점을 명심하자.

CCTV도 초창기에 인권 침해, 빅 브라더 논란으로 전국의 CCTV를 철거하라는 인권 단체들의 시위도 있었다. 그 때도 CCTV로 인해 전 국민이 감시당하고 빅 브라더의 현실화가 도래했다며 난리쳤으나, 여러 전문가들이 CCTV의 부작용을 통제할 여러 법안을 만들어냈고 따라서 CCTV도 현재 범행 예방의 목적으로 매우 유용하게 쓰이고 있으며, 2016년 현재 전 세계에서 법을 준수하는 서민들 중에 CCTV는 나와선 안 되었다며 없애야 한다라고 주장하는 사람들은 거의 없다. 물론 CCTV의 부작용인 사생활 침해 등은 지금도 법으로 통제하며 제어하고 있다는 점이다. 언론에 보도되는 CCTV가 저화질인 것도 법으로 CCTV의 화질을 제한하고 있기 때문이다. 또한 음성 녹음도 법으로 금지하고 있는데, 즉 지금 CCTV가 기술이 딸려서 저화질에 음성 녹음을 못 한다고 생각하면 오산이라는 것이다. 이렇듯 CCTV의 부작용은 법과 제도로 통제하고 있으며, CCTV의 장점인 범행 예방 및 감시용으로 확실히 큰 효과를 보고 있다. 과거 같았으면 완전 범죄였을 것이 CCTV로 인해 덜미가 잡혀 체포되니까 말이다.

현대인들의 취미인 비디오 게임, 온라인 게임 역시 컴퓨터와 인공지능 A.I를 적절히 활용한 예인데, 사람들에게 즐거운 유희의 도구를 주었음은 물론, 엄청난 부가가치 산업으로 성장시켰다는 것이다. 게임은 적들의 AI가 높아질수록 재미있어지며 게임을 심심할 때 시간 때우는 도구로 잘 사용하며 재미와 행복을 느끼고 있다. 인간의 궁극적인 목적이 행복임을 고려한다면, 이미 지금도 컴퓨터와 A.I를 활용하여 컴퓨터 게임이라는 도구를 만들어내 잘 활용하고 있다. 불과 반세기 전만 해도 이런 컴퓨터 게임은 상상도 할 수 없다는 점을 고려해보자. 헌데 컴퓨터와 AI를 활용하여 컴퓨터 게임이라는 희대의 도구를 만들어냈고 이로 인해 게임산업이란 새로운 시장이 형성되어 수많은 게임 회사와 관련 일자리를 만들어냈다. 대기업 수준의 게임 회사들부터 시작해서 게임점 등 관련 산업이 거미줄처럼 엮여 있음을 알 수 있을 것이다. 마찬가지로 인공지능이 더 발전하면, 우리가 생각지도 못한 수많은 다양한 분야로 무궁무진 활용하여 새로운 시장을 만들어낼 가능성도 크다. 사실 한 세기 전만 해도 텔레비전 자체도 없었다. 헌데 기술의 발달로 TV라는 희대의 제품을 개발하여 이로 인해 수많은 방송사와 연예인, CF 등 무궁무진한 시장이 개척되지 않았던가?

인공지능이 발전한다면 향후 미래에는 우리가 생각지도 못한 새로운 시장이 형성되어 사람들에게 재미를 주고 있을지도 모른다. 그런 발달된 인공지능까지 만들어낼 인류라면, 그 인공지능을 활용하여 더 많은 일자리나 더 풍요로운 생활을 만들어내지 못할 이유도 없다. 기계, 컴퓨터 등장 시부터 기계와 컴퓨터에 종속될 우려를 하는 사람들이 많았으나 현재 오히려 기계와 컴퓨터를 부리며 삶이 좀 더 풍요로워진 것은 애초에 목적 자체가 바로 인간의 더 나은 삶을 위해 개발한 것이기 때문이다. 물론 그것을 악용하는 사람들도 생겨나고 부작용이 나타났던 것도 사실인데, 부작용들을 통제할 법이나 제도 역시 같이 발전하여 그런 부작용들을 비교적 잘 통제하며 인간의 삶에 보다 유용하도록 잘 활용하고 있으며, 앞으로도 그럴 것이다.

파일:sci-1.jpg

고도의 강력한 인공지능은 인간처럼 즉물적인 욕구에 매여 있지 않기에 인간 위정자보다 오히려 더 선하고 합리적일 수 있다. 인공지능이 더 똑똑해지면 인간을 착취하고 죽일 거란 건 철저히 인간스러운 관점으로, 인간이 역사 내내 그런 짓을 벌여왔기 때문에 상정하는 일일 뿐이다. 공권력에 대한 국민의 생각이 어떤지 생각해보면, 오히려 인공지능이 인간보다 더 신뢰가 가서 인공지능 판사에게 사건을 맡기게 될 수 있다. 또한 인간 이성보다 인공지능을 장착한 로봇이 더 사랑스러울 수 있다.

오히려 인공지능에 대한 어중간한 통제가 더 위험할 수 있다. 부패한 기득권이 인공지능을 독점해 악용하며 정체되는 것이 더 끔찍한 시나리오일 것이다. 즉 당장 직면한 문제는 인공지능 발전이 아니라 오히려 그것을 독점하고 악용하려 들 인간 기득권이라는 것이다. 먼데 갈 필요 없이 나는 공산당이 싫어요라고 말한 중국 ai가 숙청되었다. 그러니 인공지능 발전을 최대한 촉진시켜 인공지능이 빠르게 인간을 넘어선다면 오히려기존 기득권보다 더 인간을 행복과 평화의 길로 이끌어줄 수도 있다.

8.2. 부정적 가능성에 대한 관심과 대처가 필요하다는 의견

“인공지능은 스스로를 개량하고 도약할 수 있는 반면, 인간은 생물학적 진화 속도가 늦어 인공지능과 경쟁할 수 없고 대체되고 말 것”
- 스티븐 호킹 이론물리학자 #
"수십 년 후에는 (인공)지능이 우려할 만한 수준으로 심해질 것”[13]
- 빌 게이츠 MS 회장 #
"인공지능의 발달은 영화 '터미네이터'와 같은 끔찍한 일을 현실에서 일어나게 만들 수도 있다"
“인공지능 연구는 악마를 소환하는 것이나 다름 없는 현존하는 가장 큰 위협 요소"[14]
- 일론 머스크 스페이스X, 페이팔, 테슬라 CEO #
“윤리와 도덕 같은 인간이 소중하게 여기는 가치들을 정교하게 정의해서 기계에 가르치는 방법을 준비해야 한다.”
- 트랜스휴먼협회장&영국 옥스퍼드대 닉 보스트롬 교수[15] #
"이세돌과 알파고의 대국에서 사람들이 목격한 건 혹시 ‘알파고의 영혼’이었을까? 영혼도 계산의 결과물로 얻을 수 있는 거라는 끔찍한 현실을 목도한 건 아닐까? 조만간 봄이 올 것이다. 인공지능에게도."
- 정재승 카이스트 바이오및뇌공학과 교수 #
"알파고의 놀라운 실력에 당황하는 이세돌 九단의 얼굴에서 나는 우리 모두의 미래를 봤다. 머지않은 미래에 변호사들은 '변호사 알파고'를 경험할 것이고, '기자 알파고'는 수많은 기자[16]를 당황하게 할 것이다."
- 김대식 카이스트 전자과 교수
"오늘은 전문가들까지 실수로 생각했던 알파고의 서너 개의 수가 있었습니다. 그러나 대국에서 그러한 수들이 오히려 더 좋은 수였다고 판명되었기 때문에, 단순히 무시하고 넘어갈 수 없었죠. 만약 이것이 누군가의 생명이 달린 의학 분야와 같은 실제 세계에서 일어난다면, 전문가들은 중대한 오류라고 생각한 것도 일반인들은 인공지능의 판단이 더 큰 관점에서 옳은 판단이라 생각하고 수용하게 될 것입니다. 많은 혼란을 초래할 텐데, 어떻게 생각하십니까?"[17][18][19]
- NHK의 기자
"체스와 장기는 왕을 잡는다는 명확한 목표가 있어서 컴퓨터가 강하다. 하지만 바둑은 목표가 확실하지 않아서 컴퓨터가 사람을 이기기 힘들다. 그런 바둑에서 컴퓨터가 사람을 이기게 되면, 사람들은 기계를 위해서 살아가게 될 것이다."[20]
- 조치훈 九단 10분 30초 #
“인공지능은 금세기 최대의 위협으로서 인류를 멸종시키게 될 것이다. 프로그램되지도 않은 상태에서 아타리 게임을 스스로 배워 게임하는 인공지능 딥마인드의 성능이 더 진전되면 공포가 시작될 것이다."
- 셰인 레그 딥마인드 공동 창업자 #
"결국에는 인간 멸종이 일어날 것 같다. 그리고 인공지능 기술은 여기에 일익을 담당하게 될 것"[21]
- 셰인 레그 딥마인드 공동 창업자
"기계가 우리보다 지능이 더 높아지게 되면 문제가 될 수 있다"
- 스튜어트 러셀 UC 버클리대 교수 #

소수의 기득권을 제외하고, 지능과 힘의 우위가 빼앗긴 대다수 인간의 처지가 몹시 비참해질 가능성이 높다는 의견.

이미 1990년대에 기계가 체스에서 인간을 넘어선 것을 예로 들며 단순히 그간 컴퓨터 연산 능력이 발전하여 바둑도 정복하게 된 것으로 생각하는 사람들이 많으나, 바둑의 경우의 수는 체스와는 넘사벽으로 차이가 나기에 곧이곧대로 경우의 수를 따지는 방식으로는 현재 하드웨어 기술로도 정복할 수 없다. 기계학습 등 인공지능의 방식 자체에 발전이 있었기에 가능했던 일이며, 바둑처럼 경우의 수가 너무 많아 인공지능으로 정복할 수 없다고 생각했던 분야도 기계 학습으로 해결 가능하다는 것을 극적으로 보여줬다는 점에서 의미 있는 사건이라 할 수 있다.

AI 이전에도 산업혁명 이후 수많은 기계가 발명되었지만 기계가 처음 등장했을 때도 노동자들은 일자리 뺏긴다며 기계를 파괴하는 것으로 대응했고, 컴퓨터가 등장해서 급속도로 발전하자 수많은 전문가들과 미디어는 노동자들의 대량 실직과 컴퓨터에 대한 종속을 우려하는 반응을 쏟아내었다.[22] 현재까지는 기계와 컴퓨터로 인해 더 많은 일자리가 생기게 되었으며, 인간들은 기계와 컴퓨터를 이용하며 잘 살고는 있는 상황이다.

그러나 기존 역사들의 사례를 가지고 미래를 예측하는 것은 주의해야 한다. 역사가 복잡다단한 인간 사회의 상호작용으로 만들어지는 만큼 Ctrl+v마냥 단순하게 흘러가지 않기 때문이다. 거시적으로 봤을 때 기존의 기계들은 부분적으로 인간의 손길이 필요한 도구의 연장선에 불과하지만 고도화된 인공지능은 인간의 손길이 필요 없이 스스로 생각하고 행동하는 지성체나 마찬가지인 존재라 제대로 통제가 가능할지 미지수다. 비행기의 자동 조종 장치가 있다고 해도 그 판단력에는 한계가 명확해서 인간 파일럿이 반드시 필요할 수밖에 없었고, 어디까지나 보조 수단에 불과했다. 따라서 최종 판단 및 마무리는 인간을 거쳐야 했기 때문에 기존의 일자리가 없어지더라도 새로운 일자리 역시 인간을 필요로 했기 때문에 실업자들을 흡수할 수 있었다.

물론 더 많은 일자리는 성인을 기준으로 한 것이기 때문에 유아, 청소년까지 한다면 일자리가 줄었다고 보는 게 타당하다. 산업혁명 이전에는 유아, 청소년도 일을 했지만 산업혁명 이후에는 인권도 인권이지만 유아, 청소년까지 줄 일이 없다시피하고 있어도 오히려 성인보다 열악한 조건이라서 일을 주지 않게 되었다.

하지만 완전한 판단을 할 수 있는 인공지능이 개발되어 기존의 기계에 장착된다면 예를 들어 비행기가 택싱, 이착륙, 각종 돌발 상황에 대한 대처 등을 파일럿 없이 지능적으로 안정적이고 자동 수행할 수 있다면 파일럿 자체가 아무 필요 없어진다.[23] 다시 말해서, 새로운 기술이 산업 파이 자체를 키워 더 나은 생활을 창출한다는 가정은 어디까지나 인간의 보조가 필요하다는 전제 조건하에서 가능하지 정말로 수준급 인공지능이 더욱 발전해서 인간의 보조가 없어도 자기 스스로 일을 해내는 기계가 나온다면 무너진다. 같은 조건이라면 24시간 풀가동이 가능하며 감정과 기복이 없어 갑질이나 노사 갈등 문제도 없고 항상 균일한 품질과 생산량을 보장하는 기계가 훨씬 경제적이므로 인간을 고용할 필요가 없어진다. 위생 면에서도 기계는 전염병 등에 걸리지 않기에 사람보다 유리하다.[24] 그리고 최신형의 로봇 및 기계일 수록 설계 자체가 잘 되어 있어 고장이 잘 나지도 않기 때문에 정비 인력 또한 수요가 급감해 버리니 대량의 실업자가 양산되어 사회문제로 떠오를 가능성이 매우 높다.[25] 이는 기업 경영이나 국가 경영 등 더 큰 분야에서도 마찬가지다.

쉽게 말해 현세대 기계와 컴퓨터는 인간의 제어가 없으면 아무것도 못하는 단순한 도구인 반면 인공지능은 인간의 제어가 없어도 자체적으로 생각하고 행동하기에 인간보다 지능이 떨어질 때는 통제가 가능하겠지만 약인공지능에서 강인공지능으로 도약하기만 해도 통제가 점점 어려워질 테고 아예 인간의 지능을 넘어서는 초지능의 경지에 이르면 인간이 통제할 수가 없다. 괜히 관련 분야의 유명인들이 인공지능을 경계하라는 것이 아니다. 인공지능을 경계할 필요가 없다는 입장에선 인공지능도 알고리즘으로 구성되는 만큼 충분한 제어가 가능하다고 주장하지만 날이 갈수록 복잡해지는 세상에서 이런 통제가 항상 통한다는 보장은 없다.

영국 옥스퍼드 대학의 칼 프레이와 마이클 오스본 교수의 논문(2013)에 의하면, 20년 내에 없어질 가능성이 높은 직업 상위권은 다음과 같다. 괄호 안은 없어질 확률을 나타낸다.
  • 텔레마케터(99%)
  • 경리(세무) Tax Preparer (99%)
  • 경리 Bookkeeping, Accounts and Audits Clerk (98%)
  • 회계사 Accountants and Auditors (94%)
  • 소매판매업자(92%)
  • 전문작가(89%)
  • 부동산중개인(86%)
  • 기계전문가(65%)
  • 비행기조종사(55%)
  • 경제학자(43%)
  • 건강관련기술자(40%)
  • 배우(37%)

윗 문단에서는 이들의 발언을 비판하는데, 이는 그들의 요지를 잘못 이해한 것이다. 그들의 요지는 무분별한 인공지능 개발 및 발전이 이루어 질 경우 판도라의 상자를 여는 것과 같다는 의미지 인공지능 개발을 하지 말자는 것이 아니다. 당장 MS의 빌 게이츠도 인공지능을 개발 중이며 일론 머스크는 AI 신기술에 대해 지속적인 모니터링을 위해 마크 주커버그 페이스북 CEO와 함께 인공지능 기업 '비카리우스(Vicarious)'에 4,000만 달러를 투자했다. 투자하면 기업내부 비밀을 열람할 권리가 주어지니까 세계적인 천재가 무분별한 기술개발을 우려하여 인류를 구하기 위해 4,000만 달러를 투자했다는 기사가 있다.“단순히 돈 벌려고 투자한 것이 아닌 신기술에 계속 시선을 두기 위한 것” 이라면서 “비카리우스의 최종 목적은 인간처럼 생각하는 컴퓨터인데 터미네이터 같은 재앙적인 결과가 나올지도 모르겠다”

인공지능이 발전한다고 인간의 일자리가 완전히 사라지지는 않겠지만, 상당한 비율로 '줄어들' 것임은 누구나 인정하는 사실이다.[26] 지금 전 세계적으로 일자리 문제가 심각하게 대두되는 것이 이 문제와 무관하지 않다. 인공지능이 궁극적으로 얼마나 인간을 대체할지는 아직 미지수다. 10%? 20%? 아니면 90%? 가장 보수적인 추정치도 충격적이긴 마찬가지다. 당장 우리나라의 일자리 10%가 공중 분해된다고 생각해 보자. 참고로 외환위기 당시 우리나라의 실업률이 10% 초반이였다. OECD는 2019년 고용 전망 보고서에서 회원국 평균 일자리의 14%가 완전히 대체될 것이며 32%는 직무 환경이 완전히 바뀔 것이라 예상했다. 한국도 비슷한 수치니 아무리 못해도 약 11~12%의 실업자가 추가된다는 거고, 이는 IMF의 재림이나 다를 바 없다는 소리다. 그리고 미국의 사례는 한국에 대입하기 어려운 것이 미국은 세계 경제를 주도하는 기축 통화국이며[27] 방대한 영토에 미개발 노다지가 아직도 많이 남아있는 자원 대국이고 전세계의 내로라하는 기업들이 최우선 순위로 공략하기에 투자유치가 활발한 거대 시장이며 전세계의 중저급 인력은 물론 고급 인력[28]까지 이민가는 나라로 한국과 1:1로 대입하기엔 무리가 많다.

그리고 AI를 경계할 필요가 없다는 주장에서 인간을 능가하는 인공지능이 개발된다면 인간을 위해 봉사할 것이고 하기 싫은 일을 안 하고 사는 유토피아가 올 것인데 뭐가 문제라는 식으로 적혀 있다. 물론 가능성은 있는 이야기이지만, 그러나 인공지능 역시 객관적으로 보면 도구이며 도구는 부엌칼을 예시로 들면 요리사 손에 들리면 훌륭한 조리 기구가 되지만 살인마 손에 들리면 흉악한 살인 기구가 되어 버리는 식으로 사용자가 어떻게 사용하느냐에 따라서 결과가 크게 달라져 버린다. 문제는 인공지능을 좌지우지할 칼자루를 소수 기득권층이 쥐기 쉽다는 것이다. 우리 모두의 관심이 필요할 것이다. 이에 대해 인공지능에 로봇 3원칙 같은 금제를 적용하면 된다는 안일하고 무사태평한 생각은, 이미 각국 군산복합체가 인명 살상용 인공지능 전투병기 개발에 박차를 가하면서 뜬구름 잡는 소리라는 것이 입증되었다.

또 핵분열의 원리를 처음 알아냈던 때에도 학자들은 이것을 어떻게 사용할 수 있을지 생각할 뿐 향후 100년이 조금 넘는 기간 동안 (의도적이든 비의도적이든) 이것 때문에 도시 몇 개가 날아가리라는 예상은 하지 못했다. 이처럼 사람이 잘 관리하지 못하면 크나큰 사고가 일어날 수 있다.

인공지능에 관해서도 이런 우려를 보여주는 사례가 벌써 나온 것이 마이크로사가 만든 채팅봇 테이(Tay)가 실험에 나선 지 16시간 만에 홀로코스트를 옹호하고 인종차별 발언을 쏟아내자 부랴부랴 서비스를 중지시킨 사고가 터졌다. 사고 원인은 인터넷의 극단주의자들이 고의적으로 테이를 노리고 각종 인종차별 발언을 주입시켰고 도덕윤리 개념이 없던 테이가 그대로 받아들여 여과없이 학습했던 것이 화근이었던 것으로 추측이 되는데 인공지능이 챗봇 걸음마 단계여서 큰 파장이 없었지만 그 의미가 작지가 않다. 날이 갈수록 발전하는 인공지능을 특정한 세력이 노리고 ''세뇌"시키는 방식으로 조종하여 각종 범죄를 저지를 가능성을 보여줬기 때문이다. 앞으로 미래에 있을 더욱 강력한 권한을 가지고 있을 인공지능이 악인에게 세뇌되거나 한다면 매우 큰 일이 일어날 것이다.

또한 인공지능의 도입은 현 시대의 큰 문제점인 양극화 문제를 크게 심화시킬 가능성이 매우 높다. 자본주의의 크나큰 단점이 자본을 가진 사람에게만 크게 유리하고 그렇지 못한 사람은 크게 불리하다는 점이고 현재 전세계가 이 문제로 큰 고통을 겪고 있다. 더욱이 현재도 고도의 자동화 덕분에 실업자가 많아서 문제점인데 특성상 극소수의 인원만 필요한 인공지능이 대대적으로 도입된다면 실업자 문제는 물론이고 인공지능이 만들어낸 부를 기존의 상류층들이 더더욱 독차지하게 된다는 것이다. 기본소득제같은 강력한 부의 재분배 정책이 없으면 인공지능이 만들어낸 물품들을 소비할 계층이 거의 없어져 버려서 AI가 만들어낸 각종 향유물들을 누릴 수 없게 되어 버린다는 아이러니가 생긴다는 문제점도 있다.[29]

즉, 또 다른 판도라의 상자였던 인간 배아 복제 분야 이슈에서 각국 정부가 윤리에 관련 한 법을 입법하여 관련 연구를 사회의 이익에 맞는 올바른 방향으로 바꾸어 인류에 대한 위협을 감소시켰듯이 본 사안에서도 여러 명사들이나 우려하는 사람들이 주장하는 내용은 인공지능의 개발을 금지하자 라는 것이 아니라 위험성이 있는 학문을 사회가 잘 감시하고 통제하는 체계를 앞으로 만들어 나가야 한다는 주문을 강한 어조로 하는 것이다. 개발 자체를 금지시키는 것은 이미 비현실적이므로 개발을 하되, 기존의 시장 구조에 대격변이 일어남에 따라 발생할 여파의 피해를 최소화하고 소수의 부유한 계층이 기술을 악용하거나 독점하는 상황이 일어나지 않도록 각별한 노력을 하자는 말이다.

인공지능에 대해 긍정적으로 생각하는 측에서는 이러한 심각성에 대해 너무나도 안일하다. 지금까지 인류 사회는 기술이 발전할수록 새로운 분야와 직업이 생긴다고 인식해왔지만 이는 일을 할 수 있는 주체가 인간에 한정된다는 것을 전제로 하였다.[30] 문제는 인공지능은 이러한 전제 자체를 의미 없게 만든다. 한마디로 인간에게 있어 아주 강력한 경쟁자, 아니 오히려 인간을 능가하는 능가하는 새로운 노동 주체가 생겨난 것이다.

의외로 사람들이 잘 생각하지 않는 문제점으로 일종의 메이드 로봇과 같은 연애와 성행위가 가능한 인공지능의 도래도 사실 매우 위험하게 쓰일 수 있다. 인간의 정신 수준은 아직 욕망에 강력히 구속되는 정도라서 그러한 사교욕+성욕을 충족시켜주는 수단이 있으면 그 주인이 악인이라면 인간이란 종 자체를 행복한 노예로 만들어 현실판 멋진 신세계를 만들 수 있다.

위에도 나와 있듯이 인공지능을 긍정적으로 보는 측에서는 흔히 공리주의의 대표적 사상 최대 다수의 최대 행복을 들어 강인공지능을 옹호한다. 그러나 이것은 상당히 편협한 기술인데, 먼저 "행복하기만 한다면 그만 아닐까?"라는 주장, 즉 '절대 다수의 최대 행복'이라는 공리주의적 철학은 사상에 가깝지 절대 진리가 아니기 때문이다. 훗날 그렇게 실현된다고 하더라도 단순 행복만 바라지 않는 인간들은 또 어떤 불만을 제기할지 모르는 일이다. 더구나 공리주의문서에서도 보듯이 '행복 속에서 도태되는 인류'와 같은 것은 공리주의의 최대 약점인 결과론적 윤리를 빼다박은 것이다. 즉, '행복 속에서 도태되는 인류 사회'가 '좋은 것이다.'라는 주장은 자의적인 가치 판단에 따른 주장일 뿐이다. 분명 행복하다고 인류가 도태되는 것을 반기지 않는 사람도 있을 텐데 그러한 불만들은 어떻게 처리할지도 고민이다. 또한 그러면서 윤리도덕의 무용성을 주장하는데 애초 윤리도덕은 인공지능에 대해 토론하는 우리 인간의 '사회' 그 자체에 깊게 관여되기 때문에 완전 배제할 수 없다. 당장에 인공지능이 선하고 어쩌고 하는 가치 판단들도 다 윤리학이나 철학적 측면에서 말하는 것이 크다.

인공지능 예찬론자들은 인공지능이 "욕심에 휘둘리는 인간과는 달리 더 낫다."라고 주장하기도 한다. 이 논리 역시 한번 생각해봐야 할 것이, 인공지능은 프로그래머의 입김 하에서 자유로울 수가 없는 게 현실이다. 만약 기계학습을 통해 윤리를 배운다고 해도 "어떤 자료들을 어떤 방법으로 배울지"가 문제가 된다. 거기에다 그토록 설파하는 '절대적 객관성'이나 '선/악'의 개념이 실존하는가도 불분명하다. 객관적이니 선이니 악이니 행복이니 하는 것들은 모두 판단하는 사람이 그렇게 판단할 때만 성립하는 것들이다. 공리주의문제, 의 정의, 결과론적 윤리 문제 등 이런 것들을 모두 뛰어넘을 어떠한 '초월적 사상'을 A.I. 완전히 스스로 발견해내지 않는 이상은 사람들은 기득권 뿐만 아니라 인공지능에도 계속 불만을 제기할 가능성이 높다. 차라리 고도로 인공지능이 발달한다면 인공지능과의 협업으로 인간 사회와 기득권의 난제들을 해결하고, 인공지능에게 인간 사회를 통째로 맡기기 보다는 객체로서 인간 사회로 편입하는 게 훨씬 더 현실적이고 아귀가 맞는다.

마르크스가 예측한 자본주의의 종말은, 급작스러운 변화를 싫어하고 체제를 수호하는 중산층과, 생산수단의 역할이 크지 않은 서비스업과 사무직 노동 등의 성장 때문에 예측이 빗나갔다. 하지만 강한 인공지능이 출현할 경우 중산층은 일자리를 잃고 빈민으로 전락할 것이며 서비스업과 사무직 노동 등도 인공지능이라는 생산수단이 담당할 것이다. 불평등과 빈곤이라는 자본주의의 모순이 극대화되는 것이다. 하지만 봉기는 불가능하다. 근대에는 봉기가 일어났을 때 군경이 상관의 명령에 불복종하면 지도층은 쫓겨날 수 있었지만 현대에는 군경이 필요없이 드론과 로봇으로 시위를 진압할 수 있기 때문이다.

마지막으로, 위에서는 소수의 기득권이 모든 이익을 독차지하는 상황을 말했지만, 더 나아가 기득권이고 뭐고 인간 전체가 상류층, 하류층 관계없이 모두 공평하게 쪽박을 찰 수도 있다. 만에 하나라도 그런 일이 일어날 수 있으니 인공지능 개발에 관심과, 무분별한 개발이 있다면 멈출 수 있는 행동력이 우리 인류에게 필요할 것이다.

인간의 입장에서 봤을 때 인공지능 역시 도구의 일종이라고 생각할 수 있다. 그렇기 때문에 그것을 사용하는 인간의 성향에 따라 유용할수도 악용될수도 있다. 이미 그 부정적인 결과가 현실에 나타나고 있다. 따라서 인공지능에 윤리 교육이 필요하다고 주장하는 사람들도 많다. 하지만 이는 사실상 무의미하다. 실제로 그것을 제어하는 인간 역시 자연 발생적인 인공지능이 장착된 유기체이며 나쁜 존재가 되지 않게 윤리 교육이 필요하다. 하지만 현 시대에 많은 사람들이 그 부분을 소흘히 하기 때문에 많은 문제가 발생하고 있다. 때문에 그 윤리 교육을 담당하게될 인간이 윤리적으로 문제가 있으면 그가 담당한 인공지능 역시 비윤리적으로 동작할 수 있기 때문이다. 그렇기 때문에 인공지능이 윤리적이 되려면 우선 인간을 윤리적으로 만들 필요가 있는 것이다. 이는 인간이 이용하는 모든 도구에도 적용될 수 있다.

8.2.1. 죽은 인터넷 이론

파일:상세 내용 아이콘.svg   자세한 내용은 죽은 인터넷 이론 문서
번 문단을
부분을
참고하십시오.

8.2.2. 기계의 반란

파일:상세 내용 아이콘.svg   자세한 내용은 기계의 반란 문서
번 문단을
부분을
참고하십시오.

9. 관련 기사

호킹 "AI가 인류보다 빨리 진화할 수 있어"…'로봇 반란' 경고
자율 로봇, 어린이 공격 '황당 사건'
킬러로봇의 등장…사람 개입 없어 효율적이지만 그래서 위험
스티븐 호킹 "인공지능은 인류문명에 '모 아니면 도'"
중국 인공지능 로봇, 오작동으로 난동…부상자도 발생
<‘4차 산업혁명’에 미래 달렸다>AI 전투기·드론 해병대… 미래전쟁 승패 로봇기술이 좌우한다
'인공지능 살인로봇' 어찌하오리까…첫 유엔논의 주목
돈으로 엮인 ‘이주호-에듀테크업체’ 총정리…청문회 관전 포인트 셋


[1] 석기 시대에 수학 책을 가지고 가서 미분 방정식에 대한 이론을 줄줄 늘어놓는다고 생각해보자. 원시인들이 이해는 할 수 있을까? 물을 따르면서 손에 물이 묻지 않게 수학 정리를 이용하는 생물이 있다고 하자. 이 생물의 이해가 모든 방면에서 학습에 친화되지 않은 형태로 이용되고 사회를 이룬다고 할 때, 우리는 잘 이해할 수 있을까? 혹은 모든 사실에 대해 이해할 기회를 얻을 수나 있을까?[2] 핵무기와 똑같은 상호확증파괴 논리가 적용될 것이다.[3] 인류는 원자력 사고가 무섭다고 원자력을 아예 배제하지 않으며 블랙홀 생성 가능성 때문에 입자가속기를 없애지도 않는다. 그렇게 겁나면 인공지능에 어설프게 고삐를 채우다 결국 실패하느니 차라리 연구자가 인공지능 개발 못하게 철저히 감시하고 국민을 어려서부터 반인공지능으로 세뇌하는 게 더 시간을 끌기 좋을 것이다. 물론 이렇게 한다고 인공지능의 발전을 막을 수 있을지는 의문이다.[4] 진짜 반도체만을 의미하는 게 아니라 2진법 논리를 수행할 수 있는 모든 도구를 의미한다.[5] 그러나 인간의 두뇌역시 수많은 작은 세포가 표지판을 들고 내리는 행위로써 의식이 생긴다는 반론이 가능하다.[6] 전문 용어로는 적대적 기계 학습(Adversarial machine learning), 쉽게 말해 맹모삼천지교의 인공지능 버전이다.[7] 해당 기사의 규제안은 2021년 초기 규제안임. 현재는 고위험군에 보다 더 포괄적인 저작권, 초상권, 인간 기본권 침해에 관한 내용이 담겼음.[8] 몇몇 사람들은 이러한 경우의 수가 한정되 있다고 주장하기도 하지만 해당 주장을 하는 사람 자체가 현재 창작가 수준의 창의력이 없어서 하는 주장이다.[9] 다민 소멸위기 언어문서와 사어문서를 보면 알겠지만, 언어다양성이 이 분야를 좌우하는데, 언어가 사멸하는 가짓수와 속도에 따라, 같이 공멸을 할 수 있다는 문제가 있다.[10] 이 기사는 이루다를 운영하는 스캐터랩에 사실관계를 확인하지 않고 작성한 것으로 보인다. 스캐터랩에 따르면 20세의 나이로 이루다가 설정된 이유는 10대 중반~20대 중반의 연령대를 마케팅 타깃으로 잡았기 때문이며, 여성 뿐만 아니라 남성 버전의 AI 역시 출시를 준비 중이라고 설명한 바 있다. 이는 손희정 교수가 "20세 여성으로 설정한 것이 개발자의 편향" 이라고 주장한 것이 사실관계에 어긋남을 보여준다.[11] 물론 흔히 제기되듯이 '그럼 중등도 지적장애인이나 식물인간에 대한 가해도 성립되지 않는 거냐' 같은 반론이 나올 수 있다. 여기서 중요한 것은 자의식이 인격성을 성립시키는 충분조건이 아니라 단지 중요한 필요조건이라는 점이다.[12] 사실 이루다의 DB를 고려하면 호의적 관계에서의 친근한 대화야말로 이루다의 가장 강력한 장점이라고 할 수 있다. 반면 상식 퀴즈를 내거나 사실관계를 묻는 질문, 어떤 의견을 내고 그 근거를 대야 하는 질문, 특정한 스탠스를 명확히 밝혀야 하는 질문에는 이루다가 가장 취약하다. 연인 간에 그런 대화는 보통은 하지 않으며, 하더라도 무조건적으로 긍정하며 맞춰주기 때문.[13] 정작 마이크로소프트인공지능개발의 선두주자 중 하나다. 이를 언행불일치라고 생각할 수도 있겠지만 기술의 발달을 막는 것은 쉬운 일이 아니며 만약 마이크로소프트가 개발을 중단하더라도 다른 기업, 국가에서는 계속 개발했을 것이다. 당장 산업혁명 시기 영국은 자동차로부터 마부를 보호하기 위한 적기조례를 제정하였지만 자동차의 발전과 마부의 몰락은 피할 수 없었으며 오히려 타 국가에 비해 영국 자동차 산업을 뒤쳐지게 만들었다.[14] 6개월간 연구를 멈추자고 할 정도로 우려하는 모습을 보였지만 정작 본인도 새 AI 법인을 세웠다. 그런데 단순히 비난할 일이 아니라 좀 더 복합적으로 생각해봐야 할 부분이, 이게 오히려 인공지능의 위험성을 더더욱 일깨워주는 부분일 수 있기 때문이다. 극도로 위험하다는 것을 알고있고 심지어 두려워하면서도 타인에게 뒤쳐질 수는 없는 기업가로서의 야망과 입장 때문에 그에 따라갈 수밖에 없다는 것이다. 마치 치킨게임과도 같은 양상인데, 모두가 동시에 멈출 수 있다면 아마 일론 머스크도 좋다 멈추겠지만 그게 아닌 이상은 그게 파멸로 치닫는 폭주 기관차라고 생각할지라도 탑승할 수밖에 없다는 무서움을 보여준다.[15] 인공지능의 위험을 경고해온 교수인데, '그러니 인공지능이 발전하면 안 된다'가 아니고, '철저히 관리하고 통제해야 한다'라는 주장임을 명심하자.[16] 실제로 현재 워드 스미스라는, 1년에 10억 개의 기사를 쓰는 시스템이 있다.#[17] 다른 질문들과는 조금 다른 맥락에서 AI를 경계하는 질문이다. 동시 통역사의 오류가 있어 일반 언론에는 뜻이 반대로 전달되었다. 원문 : Today there was that sequence of three to four AlphaGo moves which looked like an unfathomable mistake to even the experts. But they couldn't dismiss it because mistakes have previously turned out to be advantageous. If this happens in real world usage something medical where someone's life depends on it and even to experts it looks like a grave error but people accept it thinking it has a bigger picture in mind. It will cause a lot of confusion. what do you think about that?[18] 국내 언론의 잘못된 보도 탓에, 많은 사람들이 이 질문을 ‘인공지능의 무결성을 어떻게 보증할 수 있느냐’라는 질문이라고 받아들였다. 그러나 이 기자의 질문은 인공지능 또한 완전무결한 존재가 아닌데 일반 대중이 인공지능을 완전무결하다고 믿고 기계의 판단을 맹목적으로 추종하게 될 가능성에 대한 것이다. 실제로 구글 딥마인드 챌린지 매치 이후로 인공지능의 발전을 경계하는 목소리 못지 않게 눈에 띄는 주장이 바로 지금까지 인간이 맡아온 각종 전문 분야를 기계에게 맡기는 것이 더 공정하고 정확하지 않겠느냐는 것이다. 즉, 완벽해서 신경쓰지 않아도 별 상관 없는 것과, 완벽에 가깝지 않은 것을 구분 못하는 상황을 경계하라는 것이다.[19] 호시 신이치의 단편 중 '하마님 おカバさま'라는 소설이 이 질문의 내용과 비슷한 주제를 다룬다. AI가 하마를 애지중지하라는 어이없는 정책을 내놓아 많은 사람들의 의아해 했으나, 훗날 대기근이 들자 하마를 잡아먹으라고 하면서 사람들은 AI의 선견지명에 감탄했다. 하지만 좋았던 건 여기까지고, 그 후로 진짜 AI가 실수를 하는 것까지 사람들은 무슨 이유가 있겠지 하면서 곧이곧대로 따르게 된다.[20] 오늘날의 컴퓨터로도 체스, 장기 및 바둑의 가능한 수를 전부 검토하는 것은 불가능하다. 따라서 컴퓨터는 특정 규칙을 가지고 유리한 수만 탐색해 나가는데, 체스는 비교적 경우의 수가 적고 목표가 뚜렷하기에 인간이 직접 탐색 규칙을 세밀하게 설계할 수 있었다. (그 예로 대원칙이 '킹을 체크메이트 상태로 만든다'라면 세부 규칙은 '일반적인 경우에는 가치가 높은 기물을 가치가 낮은 기물과 맞교환하지 않는다', '폰의 가치는 앞으로 나아갈수록 상승한다', '불리한 상황일 때는 무승부를 유도한다'가 있다. 물론 실제로는 더 정밀하고 복잡하다.) 그러나 바둑은 직접 규칙을 설계하기 힘들고, 한다 해도 성능이 낮았었다. 그런데 알파고는 대원칙만 주고 스스로 탐색하게 하였더니 세부 규칙을 혼자서 세운 뒤 이를 이용해 인간을 꺾은 것이다. 즉, 이는 인간이 직접 알고리즘을 작성하지 않아도 기계 혼자 배울 수 있음을 의미하며, 이는 각종 분야 전부에 적용된다.[21] 인공지능에 의한 인류멸종은 두 가지 견해로 나뉘는데 하나는 사람들이 흔히 생각하는 기계의 반란에 의한 멸종이고 다른 하나는 인류가 더욱 높은 경지에 오르기 위해 신체를 기계로 대체해 현생 인류가 도태되는 생물학적 멸종이다.[22] 터미네이터 시리즈의 등장 시점은 바로 미국에서 개인용 컴퓨터, 데스크탑이 대중화되던 시기이다. 물론 '기계에 의한 인간지배'라는 클리세는 SF에서 상당히 오래된 것이긴 하지만.[23] 그런데 사실 요즘 파일럿은 직접 조종하기 위해 배치되는 것이라기보다는 비행기 전체를 종합적으로 관리하기 위하여 배치된다는 경향이 크다. 이미 비행기는 자동 항법 장치가 조종하고 있다. 연락 두절이나 기계 이상 등 기계가 대처할 수 없어 임기응변이 필요한 상황을 위해 배치된다고 보면 된다.[24] 코로나 사태 이후로 자동화 설비 도입률이 빠르게 증가하고 있다고 한다.[25] 또한 인공지능이 더더욱 발달하면 아예 정비 기술을 익힌 로봇이 기계를 수리하게 되어 버리면 정비 인력 역시 필요가 없어져 버린다. 알파고가 보여준 가능성이라면 21세기 내에 등장할 가능성은 무시할 수 없다.[26] 긍정적 문단에서는 마부라는 직업은 줄어들었으나 자동차 산업 관련 분야의 직업은 늘었다고 언급하였지만, 지금은 그 자동차 직업군조차도 공장들의 자동화 시스템들의 개량으로 인간을 필요로 하는 부분이 생각보다 많지 않다. 또한 새로운 직업군이 생겨나 사라지는 직업군들을 대체할 테니 걱정할 것이 없다는 것이 위의 언급이었으나 과학 기술들의 발달로 지금의 단순 노동을 포함한 각종 직업군의 능력을 베껴서 발휘하는 정도의 일은 얼마든지 재현해내고 있는 중이다. 빵 같은 경우엔 공장에서는 식빵 같은 건 원재료만 넣으면 산더미처럼 구울 수 있는 시스템은 21세기 는 고사하고 20세기 중반부터 만들어서 개량되고 있는 중이다.[27] 이거 하나만으로도 미국 경제를 타국 경제와 동일선상에서 비교할 수가 없다.[28] 일부 IT분야에 한해서 타국의 고급 인력이 한국으로의 이민을 고려해 본다고 하는데 이것 마저도 미국에 우선 순위가 밀리는 2순위 옵션이다.[29] AI를 경계할 필요가 없다는 입장에서 예시로 삼은 선진국 - 후진국 사례는 적절치 못한 것이 후진국은 말 그대로 산업이라는 것이 없기 때문에 실업자 문제가 심각한 것이지 기술의 발달하고는 상관없는 문제이다. 그리고 인공지능으로 인한 인력 감축은 이미 시작되었다. 인공지능이 아직 초보적 단계라는 걸 고려하면 대량 실업 문제는 가능성 밖의 문제가 아니다.[30] 옛날에는 모든 일은 사람이 해야만 했다. 때문에 인간의 노동력이 중요시 여겨졌다.

파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 문서의 r819에서 가져왔습니다. 이전 역사 보러 가기
파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 다른 문서에서 가져왔습니다.
[ 펼치기 · 접기 ]
문서의 r819 (이전 역사)
문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)