[사설] 또 다른 칼리시니코프
[사설] 또 다른 칼리시니코프
  • 영대신문
  • 승인 2023.05.30 18:06
  • 댓글 0
이 기사를 공유합니다

 메스컴에서는 인공지능, NFT, 암호화폐, 메타버스, 그리고 챗GPT 등 정확히 알지도 못하는 용어들이 소화되기도 전에 새로 생겨나고 있습니다. 챗GPT의 성공에 힘입어 줄줄이 이어지는 초거대 생성 AI인, 마이크로소프트사의 빙(Bing), 구글의 바드(Bard), 네이버의 하이퍼클로버, 카카오의 코GPT 등 마치 모든 사람이 다 잘 알고 있음을 전제하고 이곳저곳에서 사용되고 있습니다, 전문가는 자신의 지식을 가능하면 현학적으로 표현합니다. 나만 잘 모르는 바보가 되는 느낌이 올 때가 있지요. 실상은 대부분의 사람이 잘 모릅니다. 그렇다면 몰라도 상관없을까요? 문제는 그렇지 않다는 데 있습니다. 우리의 미래를 우리의 의지와 상관없이 소수의 전문가와 정치인에게 맡겨야 할지도 모르기 때문입니다.

 문제를 좀 더 구체적으로 살펴보겠습니다. 지능을 장착한 로봇이 세상을 지배할 것인가? 구글에서 일했으며 미래학자인 레이 커즈와일은 인공지능이 인간의 능력을 넘어서는 시점인 특이점(Singularity)이 2045년경으로 예언했으나, 이스라엘의 저술가 겸 미래학자인 유발 하라리는 그보다 5년 정도 앞당겨질 것이라고 예언했습니다. 특이점이 얼마나 무서운 상황인지 지금은 짐작조차 할 수 없습니다. 아마 지금의 개미와 인간의 지능 차이보다 더 심각할 것이며 무엇보다 승자독식의 구조를 가지게 될 것이라는 데 그 위험성이 있습니다.

 그렇다면 인간보다 뛰어난 지능을 장착한 로봇이 인간을 해칠 것인가? 이는 우리가 일부러 개미를 죽이지는 않지만 집을 지을 때 개미집이 방해가 되면 가차 없이 박멸하는 것과 같은 방식이 될 것이라는 사실은 명백합니다. 아이작 아시모프가 로봇3원칙을 제시하여 로봇이 인간을 해치지 못하도록 하는 원칙을 만들었으나 이는 박제된 사자처럼 아무런 위협이 되지 않을 것입니다.

 일찍이 MS의 빌 게이츠, 애플의 스티브 워즈니악, 테슬라의 일론 머스크 등 세계적인 빅테크 기업 수장들도 인공지능의 위험성에 대해 경고의 목소리를 똑같이 내고 있습니다. 특히 스티브 호킹 박사는 “인공지능이 인류의 마지막 기술일 수 있다!”는 짧지만 강력한 메시지를 낸 적도 있습니다. 최근 다시 일론 머스크, 워즈니악, 유발 하라리, 조슈아 벤지오 교수 등이 인공지능 개발을 6개월 정도 중지하자는 제안을 하였습니다. 물론 이 제안은 OpenAI의 초기 맴버였던 일론 머스크의 교활한 후발주자의 시간지연 작전이라는 세간의 평가를 받아 그 의미가 퇴색되었으며, AI연구의 선두 주자인 얀 르쿤(뉴욕대 교수, 페이스북 자문), 앤드류 응(스탠포드대 교수, 바이두 자문)교수는 이러한 제안에 대해 너무 과도한 걱정이며 연구적 개발은 진행하되, 상업적 개발은 일시 중지하는 것도 한 방안 이라고 언급하였습니다. 딥러닝 기술의 선구자인 제프리 힌튼(구글 자문, 몬트리올 대 교수)은 지난 5월 1일 구글을 퇴사 하며 인공지능의 위험성을 경고했습니다. 인공지능을 ‘나쁜 일’에 사용하려는 ‘악의적인 이들’을 언급한 바 있습니다.

 원자폭탄의 기초를 마련한 오펜하이머가 자신의 기술이 원자폭탄 제조에 사용되지 않기를 기원했으나 끝내 뜻을 이루지 못했습니다. 2차대전 당시 칼리시니코프는 독일군에 의해 무참히 살해되던 동료들을 구하고 조국을 구하고자 AK 소총을 개발하였으나, 오늘날 전 세계 테러리스트들이 가장 사랑하는 무기가 되었습니다. 유사 이래 인간의 기술개발 과정에 인류의 미래를 고려한 적이 있었던가? 그리고 그러한 이유로 기술개발이 중지된 적이 있었던가? 인공지능기술이 또 다른 칼리시니코프가 되지 않기를 기원해 봅니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.