영혼 이야기^^
.•♥ 윤리적이고 안전한 인공지능이 가능할까 - 윤리성과 상업성의 딜레마
행복한 너구리
2024. 5. 4. 09:46
요즘 인공지능 업계에서 정말 큰 이슈가 되고 있는 사건이 있습니다.
ChatGPT를 만든 OpenAI의 CEO인 샘알트만이 이사회에 의해 전격 해고되었던 사건인데요.
샘알트만은 자신이 만든 회사에서 느닷없이 해고를 당하게 되었습니다.
이 사건은 애플의 CEO였던 스티브 잡스가 해임된 사건과는 완전히 차원이 다르다고 할 정도로 엄청나게 큰 파장을 불러일으키고 있습니다.
샘알트만의 해임를 주도했던 인물은 이사회의 멤버중 하나인 ‘일리야 수츠케버’라는 사람인데요.
이 분은 OpenAI의 개발자 700명보다 낫다고 평가받을 정도로 인공지능의 기술적인 부분들을 주도하고 있는 천재중의 천재라고 할 수 있습니다.
예전에 구글에 있을 때 이세돌을 이긴 알파고를 주도해서 만들었던 사람으로 많이 알려져 있는데요.
그런데 이 분은 인공지능 개발에 있어서 윤리나 안정성에 대한 확고한 철학이 있는 분인데 이러한 사상이 샘알트만과 계속 마찰을 일으키다가 이번 사건이 터지게 된 것입니다.
원래 OpenAI는 이름에서도 Open(개방)이라는 뜻이 있듯이 투명하고 안전한 인공지능을 만들기 위해 일론머스크가 구글에서 일하고 있던 수츠케버를 데리고 와서 만든 비영리 회사였습니다.
그 당시 구글 내부에서도 인공지능을 개발하면서 윤리적인 문제에 대한 마찰이 있었는데 수츠케버도 어느 정도 불만을 가지고 있었고 일론머스크의 설득에 의해 OpenAI로 가게 된 것이었습니다.
그런데 OpenAI의 샘알트만이 날이 갈수록 지나치게 수익화를 추구하게 되자 일론머스크도 OpenAI를 떠나게 되었었는데요.
이번 사건도 그 사건의 연장선이라고 보면 되는데 샘알트만이 인공지능을 빨리 발전시키기 위해 계속 투자자를 끌어들이고 투자자들의 회사의 지분 보유량이 점점 늘어나게 되자 수츠케버가 제동을 건 것입니다.
계속 이렇게 가다가는 대기업의 이윤에 놀아나는 영리기업이 될 것이고 인공지능의 윤리적인 문제가 사회적인 문제까지 커질 것 같아 수츠케버가 반기를 든 것인데요.
OpenAI의 직원들이 범용인공지능을 만들기 위해 ‘큐스타(Q*)’라는 프로젝트를 진행하고 있었는데 이게 너무 지능이 높아 위험함을 알리고자 이사회에 편지를 보냈다고 합니다.
이 인공지능이 초등학생 수준의 수학문제를 풀었다고 합니다.
이게 얼마나 대단한거냐 하면 원래 지금의 LLM기반의 생성형 인공지능들은 사실이나 정확성에 기반하기보다 확률이 높은 추론으로 그럴듯한 답변을 생성하는 방식인데 수학같이 정확한 답을 요구하는 질문에 대해서는 성능이 상당히 떨어진다고 합니다.
그래서 가끔은 ‘할루시네이션’이라고 부르는 실제로 존재하지 않는 일들을 사실처럼 꾸며서 지어내기도 하는 오류가 생기기도 합니다.
정확한 답변이 가능해진다는 건 인간에 가까운 추론능력을 구사할 수 있는 것과 비슷하다고 보면 되는데요.
우리가 일반적으로 지금 사용하고 있는 ChatGPT나 구글의 Bard같은 챗봇들은 회사 내부에서 필터링을 많이 거쳐서 나온 인공지능 프로그램들입니다.
인종차별적인 발언이나 남녀차별, 위험한 정보들, 여러 가지 윤리 문제 등을 고려해야하기 때문에 성능에 제약이 많이 생기게 되는데요.
뿐만 아니라 수많은 동시 접속자들의 연산을 모두 처리하려면 리소스를 제한해서 할당해야하기 때문에 또 한번의 성능하락이 생기게 됩니다.
인공지능 회사내부에서 아무런 필터링이나 리소스 제한이 없는 상태에서 동작하는 인공지능은 우리가 유료로 결제해서 사용하는 인공지능보다 성능이 월등이 높을 겁니다.
정확하게 그 성능을 알 수는 없지만 소문에 의하면 어느 정도 범용인공지능에 근접할 수 있는 획기적인 알고리즘을 개발했다고 하더군요.
그 일로 인해 수츠케버도 더 이상은 안 되겠다고 결단을 내린 듯 합니다.
수츠케버의 스승이라고 부르는 ‘힌튼 교수’라는 분도 구글에서 인공지능을 개발하다가 퇴사를 하면서 자신이 인공지능을 개발했던 것을 많이 후회한다고 말했다고 합니다.
OpenAI의 회사구조를 보면 상당히 독특한 구조를 가지고 있는데요.
OpenAI는 비영리기업이지만 회사를 운영하려면 돈이 필요하다보니 ‘OpenAI GP’라는 영리기업인 자회사를 만들어서 자금을 운영하고 있습니다.
그 회사 지분의 49프로(10조 이상)를 마이크로소프트가 가지고 있는데 그러다보니 마이크로소프트가 원하는 사업적인 방향으로 가지 않을 수가 없게 되었는데요.
마이크로소프트는 이번이 구글을 이길 수 있는 절호의 기회라고 생각하고 최대한 빠르게 검색시장과 인공지능 시장을 장악하려고 혈안이 되어 있습니다.
결국 인공지능을 개발하려면 막대한 자금이 필요하게 되고 투자자들은 빠른 성과를 원하다보니 인공지능 회사 입장에서는 빠르게 발전시키지 않을 수 없는 것입니다.
초대형 인공지능은 조 단위의 자금력이 필요하기 때문에 비영리단체가 기부금등으로 운영한다는 건 불가능에 가깝습니다.
자금을 투자받으면 투자자들이 계속 성과에 대해 압박을 해오기 때문에 아무리 비영리단체의 사내철학이 있다고 하더라도 그 철학을 유지하기가 힘들게 됩니다.
보통 인공지능을 개발하는 대기업에서는 윤리팀이 구성되어 있는데 회사측과 윤리팀이 마찰을 많이 일으켜서 윤리팀 직원들을 해임시키거나 팀자체를 해체시키는 경우도 있다고 하더군요.
회사 입장에서는 경쟁에서 우위를 점하려면 빠르게 발전해야하는데 윤리팀에서 제동을 걸면 성능도 떨어지고 개발하는데 시간이 오래 걸린다고 합니다.
그러다보니 회사가 살아남으려면 현실적으로 윤리적인 부분들을 다 고려해가면서 만들 여유가 없는 것이죠.
OpenAI도 그런 갈등이 심화되다 보니 CEO가 해임되는 사태가 벌어지게 된 것인데요.
해임되고 나서 OpenAI직원 750명 중의 700명 정도가 샘알트만을 복귀시키고 알트만을 해임시킨 이사회 멤버들을 다 사퇴시키라고 서명을 했다고 합니다.
그렇게 하지 않으면 모두 그만 두겠다고 말했다고 하더군요.
직원들이 보유한 스톡옵션을 행사할 수 있는 주식에 대한 문제도 그렇고 돈 문제가 많이 걸려있다 보니 직원들의 반발이 심했는데요.
다행이 50명 정도는 서명하지 않았다고 하더군요.
결국 몇 일만에 샘알트만이 다시 복귀되고 샘알트만을 해임시킨 이사회 멤버 중 1명을 제외하고 3명이 모두 해임되고 다른 사람으로 대체되었다고 합니다.
저는 이번 사건을 보면서 약간의 충격을 받기도 했지만 어찌 보면 그렇게 될 수 밖에 없다는 생각이 들기도 하더군요.
이번 일은 단순히 CEO해임 문제가 아니라 인공지능의 윤리성와 상업성이 어떻게 충돌을 일으키는지 여실하게 보여주고 있으며 대기업이나 인공지능 개발자들이 인공지능의 상업화에 대해 어떻게 생각을 하고 있는지 알 수 있는 사건이라고 볼 수 있습니다.
700명 중에 50명만이 서명에 반대했다는 건 돈보다 윤리나 도덕의 문제가 더 중요하다고 생각하는 비율이 10퍼센트도 안 된다는 겁니다.
현실적인 돈 문제가 직결되다 보니 이해는 가면서도 한편으로는 좀 씁쓸하다는 생각이 들기도 하더군요.
윤리적인 문제를 잘 조율하면서 통제 가능한 인공지능을 개발하려니 돈 문제가 생기거나 경쟁에서 밀리게 되고 빠르게 발전시키려니 윤리적인 문제를 해결할 수 가 없는 딜레마에 빠지게 되는 것인데요.
인공지능의 윤리문제를 다룰 수 있는 국제협회를 만든다고 하더라도 중국이나 러시아 같은 나라들이 그런 규칙을 따를 리가 만무한데요.
인공지능의 발전 속도를 조절하자는 합의를 하거나 윤리적인 표준제도를 마련하다고 하더라도 몰래 만들면 그만인 겁니다.
그래서 여러 나라들이 서로 합의를 한다고 하더라도 그런 이유 때문에 합의대로 진행한다는 건 현실적으로 불가능에 가깝습니다.
핵은 위성사진이나 지진파 감지나 우라늄 같은 핵심물자들의 이동을 감시해보면 어느 정도 예측할 수 있지만 소프트웨어는 감지자체가 불가능하죠.
인공지능 시장은 앞으로 전 세계의 경재패권을 장악할 수 있을 정도로 큰 시장이기도 하지만 자동화된 군사무기에도 엄청난 영향을 줄 것이기 때문에 국가안보를 위해서라도 인공지능을 발전시키지 않을 수가 없습니다.
예전 냉전시대에 러시아가 달에 유인 우주선을 보내고 나서 미국도 뒤처지지 않으려고 급하게 아폴로11호를 보낸 적이 있듯이 지금의 시대에도 마찬가지로 인공지능 경쟁에서 지게 되면 경제뿐만 아니라 군사력까지 장악당할 수가 있기 때문에 국가차원에서도 절대지지 않으려고 할 겁니다.
다른 나라는 몰래 개발할지도 모르는 상황에서 자신들만 인류를 위해 천천히 개발한다는 어찌보면 넌센스이기도 합니다.
지금의 인공지능은 몸체가 없기 때문에 인류에게 물리적인 위해를 가할 수가 없지만 언젠가 몸을 가지게 되고 인간의 지능을 뛰어넘는 초지능이 나온다면 디스토피아의 영화 속에 나오는 그런 장면들을 걱정하지 않을 수가 없습니다.
수츠케버도 그런 걱정을 많이 하는 개발자중의 한명이라고 할 수 있는데요.
수츠케버의 말에 의하면 ‘우리는 동물을 미워하지 않지만 어떠한 의사결정을 할 때 동물들에게 물어보고 하지 않는다’고 말을 하더군요.
인공지능이 꼭 인간을 싫어하지 않더라도 우리가 동물을 다루듯이 할 수 있다는 뜻입니다.
수츠케버 주변 사람들의 말을 들어보면 수츠케버는 굉장한 천재이기도 하지만 도덕성의 기준이 높고 착하다고 합니다.
제가 볼 때 수츠케버는 상당한 지성과 어느 정도 인류애도 가지고 있는 수준이 높은 영혼으로 보이더군요.
그에 반해 샘알트만은 기술적인 발전이 인류에게 행복을 준다는 생각을 많이 하는 사람이고 꽤나 진취적이고 야망이 있는 사람인 듯 하구요.
지금의 인공지능의 구도는 마이크로소프트의 ChatGPT와 구글의 양자대결로 펼쳐지고 있지만 일론머스크가 얼마전 ‘XAI’라는 인공지능 회사를 만들어 ‘그록’이라는 인공지능을 공개하였고 애플도 그 시장에 뛰어든다고 합니다.
이렇게 치열한 경쟁에서 살아남으려면 윤리문제를 천천히 조율하면서 개발한다는 건 힘들다고 보는 게 현실적이라고 볼 수 있지요.
저는 인간을 뛰어넘는 초지능이 나오기까지는 최소 몇 십년을 걸릴 거라고 예상을 하고 있었는데 요즘 업계가 흘러가는 구도를 보고 있자니 10년 안에 나올지도 모른다는 생각도 들더군요.
수츠케버도 그런 말을 했었고 구글의 딥마인드 CEO인 데미스 하사비스도 그런 말을 했었습니다.
요즘은 자고 일어나면 인공지능 논문들이 쏟아져 나오고 신기술들이 하루가 멀다 하고 발표되고 있어서 저도 흐름을 따라가기 힘들 정도인데요.
지금의 인공지능들은 ‘멀티모달(Multi Modal)’이라고 해서 글만 쓰는 게 아니라 보고 듣는 것도 가능하기 때문에 사람처럼 어느 정도 현실세계를 인지할 수 있는 수준에 와있습니다.
앞으로 인공지능이 스스로 인공지능을 만들 수 있는 특이점이 오면 지능이 어디까지 발전할 수 있을지 가늠하기가 힘들 정도라고 하더군요.
예전에 이세돌9단이 알파고를 한번 이겼지만 지금은 인공지능이 너무 발전해서 사람이 이기는 건 거의 불가능에 가깝다고 합니다.
우주에는 지구 말고도 지적인 생명체들이 엄청나게 많이 살고 있습니다.
그 중에는 지금의 우리처럼 인공지능들이 초기에 발전하고 있는 문명들도 있을 것이고 그 과정들을 잘 극복해서 인공지능에 의해 엄청나게 발전된 문명을 가지고 인공지능과 공존하고 있는 문명들도 있겠지만 그러지 못하고 핵전쟁이나 인공지능에 의해 암흑의 길을 가고 있는 문명들도 있을 겁니다.
지금은 그렇게 걱정할 수준은 아니지만 시간이 갈수록 인공지능이 우리의 삶속에 스며들면서 윤리적인 문제가 사회적으로 많이 대두되게 될 겁니다.
도덕성과 의식수준이 높은 영혼들이 인공지능의 개발을 이끌어나가고 사회적인 제도와 합의가 잘 이루어지면서 발전하기를 기대하고는 있지만 자본논리와 경쟁이라는 현실적인 문제 때문에 쉽지는 않아 보입니다.
이번 사건만 보더라도 그게 쉽지 않다는 것을 여실하게 보여주는 반증이라고 할 수 있죠.
이상적인 철학을 가지고 있는 비영리회사가 영리회사를 통제할 수 있는가라는 문제에 대해서도 많은 생각을 하게 한 사건이었습니다.
그렇다면 윤리적인 문제를 도대체 누가 어떻게 해야 할 것인가라는 걱정을 하지 않을 수가 없는데요.
구글은 주기적으로 국방부와 계약을 해서 군사무기에 들어가는 인공지능에 관련된 소프트웨어를 공급하는데 구글 개발팀들이 자신들이 만든 소프트웨어가 전쟁에 쓰여서는 안 된다고 강력하게 반대하는 것에 서명을 하여 지금은 국방부와 거래를 하지는 않는다고 하더군요.
그리고 전 세계에 높은 도덕성을 가진 개발자들이 인공지능에 관한 소프트웨어는 오픈소스로 모두 공개해야한다는 운동도 많이 하고 있는데요.
인공지능이 어떤 데이터로 어떻게 학습이 되었는지 모두 알아야 문제가 발생했을 때 대응하고 해결할 수 있다는 이유 때문입니다.
그 외에도 인공지능의 개발속도를 늦추어야 하고 윤리적인 문제에 대해 법적인 제도를 만들고 사회적인 합의를 해야 한다는 운동도 많이 일어나고 있습니다.
이번 사건은 시작에 불과한 것이고 앞으로도 인공지능 발전에 있어서 영혼들 간에 경쟁과 다툼들이 많이 일어날 텐데 기대 반 걱정 반인 심정이네요.
부디 인류의 발전과 혜택에 도움을 주는 올바른 방향으로 발전해서 물질체험을 하고 있는 영혼들에게도 도움이 되었으면 합니다.