전세계 기술 산업 종사자들이 인공 지능(AI) 개발을 6개월간 중단할 것을 요구하는 공개 서한에 서명했다.
그러나 캠브리지 대학의 조니 펜 교수는 일요일 아침 Q+A 프로그램에서 AI가 제기하는 위험에 대한 우려가 잘못된 것이라고 말했다.
조니 펜 교수는 기계가 인간을 장악할 가능성이 아니라 대기업이 AI 산업을 장악하고 중소기업과 기관을 밀어내는 것에 대해 우려하고 있었다.
그는 먼 미래에 기계가 지각력이 있거나 더 인지적인 것으로 언급되는 지점에 도달할 것이라는 우려는 여전히 존재한다고 말했다.
하지만 역사적으로 볼 때 그 정도에 가깝다고 생각하지 않는다며 그가 우려하는 바를 밝혔다.
그는 AI 연구의 원동력은 뇌에 약간의 관심이 있고, 뇌를 모방하고, 빌려오기를 좋아하지만 일대일로 복사하는 데는 관심이 없다고 말했다.
AI 연구 중단을 촉구하는 서한에는 기술 억만장자 일론 머스크와 애플 공동 창립자 스티브 워즈니악 등이 서명했으며, 인공 지능의 대부로 불리는 제프리 힌턴도 비슷한 우려를 표명했다.
조니 펜 교수는 그 서한에 서명하지 않았다.
그는 연구자들이 일부 용도를 의도적으로 피하고 그것이 유용할 수 있다고 알고 있는 영역에 집중하며, 광범위하게는 피해야 하는 용도는 사회 현상을 예측하는 것과 관련이 있다고 말했다.
AI를 사용한 예측 사회 공학의 예에는 학교에서의 성공 예측 또는 누군가가 범죄를 저지를 가능성을 예측하는 것이 포함된다. 이 기술은 2002년 영화 마이너리티 리포트에서 예측한 기술이다.
조니 펜 교수는 이러한 특정 용도가 지나치게 결정적이며 잠재적으로 매우 위험할 수 있지만 AI 연구를 6개월 동안 중단한다는 개념은 임의적이고 실행 불가능하다고 의견을 밝혔다.
그는 서명한 사람들도 알 것이라며 특히 어디에, 어떤 용도로 그렇게 걱정하는지 반문했다.
조니 펜 교수는 그렇다고 AI 연구가 제한 없이 진행돼야 한다는 뜻은 아니라고 말했다. 그는 "겹치는 위기"의 시기에 "사람들에게 한 발 물러서서 세상이 어디로 가고 있는지 반성할 시간을 주는 방법을 찾는 것"을 시작해야 한다고 주장했다.
그는 AI 기술 혁신을 가지고 있으며, 그에 상응하는 사회적 혁신은 무엇인지에 대해 생각해보자며 3일 연휴가 될 수도 있고, 부모를 위한 유급 보육이 될 수도 있다고 말했다.
AI가 시간을 절약하고 생산성을 향상시키기 위해 진정으로 여기에 있다면 그것을 증명하라고 그는 덧붙였다.
AI 개발을 규제하는 것과 관련하여 그는 결국 일종의 글로벌 감시자가 있을 가능성이 있다고 말했지만 상향식 반문화적 대응을 더 강조했다.
예를 들어 조니 펜 교수는 터치스크린을 거부하고 키네틱 컨트롤로 돌아가고자 하는 운전자, 점점 더 데이트 앱을 외면하는 젊은이, 노인을 위한 전통적인 대면 연결을 유지하기 위해 일부 상점에서 느린 차선을 도입하는 슈퍼마켓을 포함한다고 암시했다.
그는 사회 혁신이 필요하다고 강조하며, 사회 혁신을 하는 사람은 간병인, 간호사, 교사 등 다른 일반 사람들과 거래하고 일반 사람들이 살고 싶은 세상을 디자인하는 일반 사람들이라고 덧붙였다.
인공 지능(AI) 개발 6개월간 중단할 것을 요구하는 공개 서한은 어떤 것인가?
일론 머스크와 수천 명의 다른 사람들이 인공 지능 연구의 중단을 요구하는 공동 서명 서한에서 인용된 연구원들은 그들의 작업을 사용한 것에 대해 비난하고 일부 서명자가 가짜로 밝혀지고 다른 서명자가 철회하는 등의 후폭풍이 있었다.
지난 3월 22일 일런 머스크, 인지과학자 게리 마커스, 애플 공동 창업자 스티브 워즈니악을 포함한 1,800명 이상의 서명자들은 GPT-4보다 "더 강력한" 시스템 개발을 6개월간 중단할 것을 촉구했다. Amazon, DeepMind, Google, Meta 및 Microsoft의 엔지니어도 지원을 제공했다.
일론 머스크가 공동 설립하고 현재 Microsoft가 지원하는 회사인 OpenAI가 개발한 GPT-4는 인간과 같은 대화를 나누고, 노래를 작곡하고, 긴 문서를 요약하는 기능을 개발했다. "인간 경쟁 지능"을 갖춘 이러한 AI 시스템은 인류에게 심각한 위험을 초래한다고 주장했다.
일런 머스크, 거대한 AI '디지털 마인드' 생성 중단 요청에 합류
서한에는 AI 연구실과 독립적인 전문가들은 이 일시 중지를 사용하여 독립적인 외부 전문가가 엄격하게 감사하고 감독하는 고급 AI 설계 및 개발을 위한 일련의 공유 안전 프로토콜을 공동으로 개발하고 구현해야 한다고 되어 있다.
이러한 노력을 조정한 Thinktank인 Future of Life 연구소는 OpenAI, Google 및 자회사 DeepMind의 전현직 직원뿐만 아니라 대학 학자를 포함한 전문가의 12개 연구를 인용했다. 그러나 편지에 인용된 네 명의 전문가는 그들의 연구가 그러한 주장을 하는 데 사용된 것에 대해 우려를 표명했다.
처음 이 서한이 공개되었을 때 이 서한에는 서명을 위한 확인 프로토콜이 없었고 시진핑과 메타의 수석 AI 과학자 Yann LeCun을 포함하여 실제로 서명하지 않은 사람들의 서명이 있었다. 그는 트위터에서 지지하지 않는다고 밝혔다.
비평가들은 머스크 재단으로부터 자금을 지원받은 FLI(Future of Life Institute)가 AI에 대한 보다 즉각적인 우려인 기계에 프로그래밍되는 인종 차별적 또는 성 차별적 편견보다 종말론적 상상 시나리오를 우선시한다고 비난했다.
인용된 연구 중에는 이전에 Google에서 윤리적 AI 연구를 감독한 Margaret Mitchell이 공동 저술한 잘 알려진 논문인 "On the Dangers of Stochastic Parrots"가 있다. 현재 AI 회사인 Hugging Face의 수석 윤리 과학자인 Mitchell은 로이터 통신에 무엇이 "GPT4보다 더 강력한" 것으로 간주되는지 불분명하다고 말하면서 이 서한를 비판했다.
그녀의 공동 저자인 Timnit Gebru과 Emily M Bender는 트위터에서 이 편지를 비판했으며, 후자는 주장 중 일부를 "unhinged(불안정하고 조절이 안되는 이성을 잃은 상태)"라고 낙인찍었다.
코네티컷 대학의 조교수 Shiri Dori-Hacohen도 편지에서 자신의 작업이 언급되는 것을 문제 삼았다. 그녀는 작년에 AI의 광범위한 사용이 이미 심각한 위험을 초래했다고 주장하는 연구 논문을 공동 집필했다. 그녀의 연구는 AI 시스템의 현재 사용이 기후 변화, 핵전쟁 및 기타 실존적 위협과 관련된 의사 결정에 영향을 미칠 수 있다고 주장했다.
그녀는 로이터 통신에 “AI는 이러한 위험을 악화시키기 위해 인간 수준의 지능에 도달할 필요가 없다.”라고 말했다. "실제로 중요하지만 할리우드 수준의 관심을 받지 못하는 비실재적 위험이 있다." 고 그녀는 덧붙였다.
비판에 대한 논평을 요청받은 FLI의 Max Tegmark 회장은 AI의 장단기 위험을 모두 심각하게 고려해야 한다고 말했다. “누군가를 인용한다는 것은 그들이 그 문장을 지지한다고 주장한다는 의미일 뿐이다."라고 그는 로이터와의 인터뷰에서 말했다.