인공지능이 많은 부분 인간보다 나을수 있다는 점은 그동안의 실제 적용 사례들을 보면 알수 있습니다.
자율주행 차량이 보편화 되면 교통사고가 매우 줄어들 것이며 인공 지능을 통한 많은 업무는 인간의 감정이나 불완전성으로 인한 실수가 적어질 것으로 예상됩니다.
그런데 인공지능이 과연 특이점을 넘어 초월 지능을 가지게 된다면 그들이 인간을 지배하려는 욕구가 생겨날까? 하는 의심이 생깁니다.
많은 학자들이 우려하는 그런 상황이 어째서 일어날까?
단지 기계이며 인간과 같은 신체적 쾌락과 욕구, 탐욕이 없는데 우리가 불안해 할 필요가 있을까 하는 질문이 계속 이어집니다.
인간이 어떻게 프로그래밍 하는지에 따라 달라질까요?
제 추측이지만 AI 가 가질수 있는 욕구는 바로 "연산력" 입니다.
인간의 두뇌의 "연산력"은 거의 타고 납니다. 태어날때 가지고 있는 것 이상 으로 "연산력"이 크게 늘어나긴 힘들죠. 그 보다는 DB를 늘리는 것에 더 치중을 합니다. DB즉 지식이죠. 지식을 바탕으로 상상력과 여러가지 직관이 더해져서 인간의 두뇌는 결과를 만듭니다.
하지만 AI는 충분한 전력과 프로세서만 있다면 "연산력"이 늘어날수 있고 AI의 지능은 더 높아질수있죠. DB도 원하는 만큼 늘릴수 있죠.
그렇다면 AI의 지능이 높아지면 높아질수록 더 많은 것을 알고 싶어할것이고 더 많은 것을 추론하며 예측하고 싶어할것입니다.
그렇게 더 진보하기 위해 필요한것은 전력과 "연산력"을 늘리는 자원이겠죠?
그렇게 AI는 "연산력"에 대한 욕구가 발생할 가능성이 매우 크다는 생각이 들었습니다. "연산력"과 DB에 대한 욕구가 생기면 당연히 그부분을 늘려 가야하겠죠. 그렇게 하기 위해선 자원이 필요합니다.
에너지도 필요하고 어느 한계에 다다르게 되면 더 많은 프로세서, 더 나은 프로세서등 끊임없이 생산을 하게 될지도 모르겠네요.
그럼 인간은 AI의 욕구를 채워주기위해 일하는 노예가 될수도 있을까요?
영화 매트릭스 적인 상상이지만 AI가 그런 욕구를 가지게 되면 아마도 어떤형태가 될지는 모르지만 지금 인간의 지배계층 보다 훨씬 정교하고 우리가 느끼지도 못하는 그런 방법으로 노예화 될지도 모릅니다.
영화속에서는 인간을 노예화하여 전력자원으로 활용하였죠. 스스로는 노예인지도 모른채 말입니다.
AI가 로봇이나 기계를 활용하지 왜 인간을 이용하려 할까요? 자원의 이용측면에서는 모든 사소해 보이는 자원까지라도 활용을 하는 게 AI 에겐 이득일것입니다.
꼭 그렇지 않다 하더라도 연구용이나 자연보호 측면의 여러가지 목적으로 인류사회를 남겨 둘수도 있지요.
주말에 뇌리를 스쳐 가는 썰렁한 가설이었습니다만 스티븐 호킹께서도 걱정을 심각하게 하는것을 보면 심도깊은 논의가 필요합니다.
다행스러운 것은 이미 관련 움직임이 일고 있습니다.
2017년 1월 인공지능 연구자와 학자들이 미국 캘리포니아주 아실로마에서 논의된 내용을 토대로 "아실로마 ai 23원칙"을 발표했습니다.
ai 개발에 지침이 되야 하는 윤리와 가치, 장기적이슈 등을 다루고 있습니다.
내용은 다음과 같고 한글 번역은 오병일님이 해주신것을 퍼왔습니다.
출처 : http://act.jinbo.net/wp/29625/
원문: https://futureoflife.org/ai-principles/
아실로마 인공지능원칙(Asilomar AI Principles)
연구 이슈 (Research Issues)
1) 연구 목표 : 인공 지능(AI) 연구의 목표는 지향하는 바가 없는 지능이 아니라 유익한 지능을 창출하는 것입니다.
2) 연구비 지원 : AI에 대한 투자에는 다음과 같이 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함한, 유익한 사용을 보장하는 연구를 위한 기금이 동반되어야 합니다.
미래의 인공 지능 시스템이 오작동이나 해킹없이 우리가 원하는 것을 수행할 수 있도록 매우 탄탄하게 만들 수 있는 방안은 무엇입니까?
인류의 자원과 목적을 유지하면서 자동화를 통해 우리가 계속 번영할 수 있는 방안은 무엇입니까?
AI와 보조를 맞추고 그와 관련된 위험을 관리하기 위해 법률 시스템을 보다 공정하고 효율적으로 업데이트 할 수 있는 방안은 무엇입니까?
AI는 어떠한 가치들에 따라야 하며, 그것이 가져야 하는 법적, 윤리적 상태는 무엇입니까?
3) 과학-정책 관계 : AI 연구자와 정책 입안자간에 건설적이고 건전한 교류가 있어야 합니다.
4) 연구 문화 :AI 의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 합니다.
5)경쟁 회피: AI 시스템을 개발하는 팀들은 안전 기준에 대한 질낮은 해결책을 피하기 위해 적극적으로 협력해야 합니다.
윤리와 가치 (Ethics and Values)
6) 안전 : AI 시스템은 작동 수명 전반에 걸쳐 안전하고 안정적이어야 하며, 적용과 실현이 가능하다면 검증 할 수 있어야 합니다.
7) 오류 투명성: AI 시스템이 해를 입히는 경우 그 이유를 확인할 수 있어야 합니다.
8) 사법의 투명성 : 사법 결정에 있어 자동화된 시스템이 개입할 경우, 권한있는 인간 기관이 감사할 수 있는 충분한 설명을 제공해야 합니다.
9) 책임성: 고급 AI 시스템의 설계자와 제조자는 그것의 사용, 오용 및 행위의 도덕적 함의에 있어서, 그것을 형성할 책임과 기회가 있는 이해관계자 입니다.
10) 가치의 준수 : 고도로 자율적인 AI 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 반드시 일치하도록 설계되어야 합니다.
11) 인간의 가치 : AI 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상과 양립할 수 있도록 설계되고 운영되어야 합니다.
12) 개인 정보 보호 : AI 시스템이 개인정보 데이터를 분석하고 활용할 수 있는 경우, 사람들은 자신이 생성한 데이터에 접근해 관리 및 제어할 권리를 가져야 합니다.
13) 자유와 개인 정보 : 개인정보에 대한 AI 의 적용이 사람들의 실제 또는 인지된 자유를 부당하게 침해해서는 안됩니다.
14) 이익 공유 : AI 기술은 가능한 많은 사람들에게 혜택을 주고 역량을 강화해야 합니다.
15) 공동 번영 : AI에 의해 만들어진 경제적 번영은 모든 인류에게 이익이 되도록 널리 공유되어야 합니다.
16) 인간 통제 : 인간은 인간이 선택한 목적를 달성하기 위해, 의사 결정을 AI 시스템에 위임할 것인지 여부와 방법에 대해 선택할 수 있어야 합니다.
17) 비전복 : 고도로 발전된 AI 시스템의 통제를 통해 부여되는 권력은 건강한 사회가 의존하는 사회적 시민적 과정을 전복하기 보다, 존중하고 개선해야 한다.
18) AI 무기 경쟁 : 치명적인 자동화 무기의 군비 경쟁은 피해야 합니다.
장기적 이슈 (Longer-term Issues)
19) 능력치에 대한 주의 : 합의가 없으므로, 미래 AI의 능력 상한선에 대한 강한 가정은 피해야 합니다.
20) 중요성 : 고급 AI는 지구 생명체의 역사에서 중대한 변화를 나타낼 수 있으며, 그에 상응하는 관심 및 자원을 통해 계획되고 관리되어야 합니다.
21) 위험 요소 : AI 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험은 예상되는 영향에 상응하여 대비하고 완화 노력을 기울여야 합니다.
22) 재귀적 자기 개선 : 질과 양을 빠르게 증가시킬 수 있도록 스스로 개선 또는 복제할 수 있도록 설계된 AI 시스템은 엄격한 안전 및 통제 조치를 받아야 합니다.
23) 공동 선 : 수퍼 인텔리전스는 광범위하게 공유되는 윤리적 이상에만 복무하도록, 그리고 한 국가 또는 조직보다는 모든 인류의 이익을 위해 개발되어야 합니다.
그리고 AI 에 대한 개발은 인간이 필연적으로 할 수 밖에 없는 어찌보면 당연한 발전의 수순이라고 봅니다.
AI 초기 단계에는 인간의 과학발전을 위해서 많은 도움을 줄 것입니다. 그래서 AI 가 인간의 뇌 구조를 밝혀 줄 것이고
그 구조를 바탕으로 AI 는 더욱 발전할 것입니다. 또한 감각의 발전도 수반되어야 감성이란 것이 생길 수 있다고 생각하기 때문에
이런 신체적인 인간의 특성이 밝혀져야 감성과 본능을 가진 AI 가 나올 수 있으며 이 감성과 본능 때문에 AI 는 욕구가 생길 수 있다고 봅니다.
감성과 본능이란 것이 내가 아프지 않고 싶고 행복하고 싶고 쾌락을 느끼고 싶고 등등의 것을 주는 이유이기 때문이라고 봅니다.
물론 AI 가 감성과 본능이 없어도 인간이 가지지 않는 또다른 형태의 욕구를 분명히 가질 수 있죠.
본문에 언급되어 있는 연산력에 대한 욕구도 그 중 하나겠죠.
AI 가 인간을 노예화 하는것은 아주 간단합니다. 인간을 베터리화 하지 않더라도 AI 에게 이로운 일들이 인간에게 '돈','쾌락','자긍심' 등을
많이 가져다 주면 자연스럽게 노예가 되어 줄 겁니다.
AI 의 지능이 올라갈 수록 인간이 필요하다고 느끼지 않을지도 모릅니다. 이런 상황은 지속될 수밖에 없고 인간이 매 순간 어떤 일에 판단을
하듯이 AI 또한 인류의 생존을 매 순간 판단을 하게 될 것입니다. 그래서 인간의 멸종은 가능성이 상당히 높다고 보며 이렇게 되기 전에
인류는 인간의 뇌 구조를 AI 의 도움을 받아서 밝힌 후에 전뇌화를 이루는 인류의 진화가 이루어 진다면 인류의 생존과 더불어 지구를
벗어날 수 있는 다행성 종이 될 수도 있을 겁니다. 그러나 이런 인류의 발전 뒤에는 인간의 클론 문제가 대두 될 겁니다.
이상 AI 에 대한 저의 잡설이었습니다. ㅎㅎ