
기업혁신고용부는 데이터 및 개인 정보 누출 위험을 이유로 직원이 ChatGPT와 같은 인공 지능 기술 사용을 금지했다.
애플과 삼성을 포함한 많은 대형 은행과 기술 회사들이 해외에서도 유사한 조치를 취했다.
뉴질랜드는 아직 정부 부처 및 기관의 인공 지능 사용에 대한 정부 차원의 규칙이나 지침이 없다.
문서에 따르면, 지난 3월 MBIE(기업혁신고용부)는 ChatGPT를 포함한 여러 AI 도구에 대한 직원 액세스를 차단했다.
기업혁신고용부(Ministry of Business, Innovation and Employment)는 직원이 민감한 정보가 AI 기술 사용으로 인해 외부로 나갈 것을 우려하며, 기술을 안전하게 사용할 수 있는지 확인이 될 때까지 사용 중지 조치를 취했다.
오클랜드 대학교 선임 법률 강사이자 AI 법률 전문가인 Nikki Chamberlain은 이러한 조치는 신중한 선택이었다고 평가했다. 니키는 AI가 새로운 기술이고 아직 그 결과를 모른다며, 그 곳에 넣는 정보가 보호될 것인지는 시간이 지나봐야 알 수 있을 것이라고 말했다.
뉴질랜드에는 AI 관련 규정이나 법률이 없으며, 내부 MBIE 문서에는 직원의 AI 도구 사용에 대한 모든 정부 기관의 규칙이나 지침이 없다고 나와 있다.
내무부의 정부 최고 디지털 책임자 대변인은 정부가 곧 있을 것으로 예상되는 기관에 대한 지침을 마련하기 위해 노력하고 있으며, 자체적으로 DIA(The Department of Internal Affairs) 직원이 AI 도구를 사용하는 것은 금지되지 않았다고 말했다.
프라이버시 커미셔너 마이클 웹스터는 AI를 사용할지 여부와 방법을 결정하는 것은 개별 정부 기관과 회사의 결정에 달려 있다고 말했다.
컨설팅 회사인 Simply Privacy의 Frith Tweedie는 직원들에게 지침과 보호 장치가 필요하다며, 현재 안전함이 확인되지 않은 상황에서 AI 사용을 일시적으로 중지하는 것이 합리적이라고 견해를 밝혔다. 그녀는 모든 정부 기관이 이에 대한 입장을 정해야 하며, 특정 민감한 정보를 다루는 일부 사람들에게는 완전한 사용 금지가 적절할 수 있다고 덧붙였다.
해외의 많은 회사에서 직원의 AI 사용을 금지하고 있다.
ChatGPT는 인터넷을 통해 교육을 받고 시퀀스의 다음 단어를 예측하여 질문에 대한 전체 문장 답을 내놓는다. 여기에는 확인되지 않은 정보가 많이 포함되어 있으며 기본적으로 잠긴 상자로 일단 정보를 입력하면 다시 나가는 것이 거의 불가능하다.
캐나다의 개인 정보 감시 기관은 Chat GPT 기술에 대해 OpenAI에 대한 조사를 시작했으며 이탈리아는 개인 정보 보호 문제로 제품 사용을 잠시 금지했다.
Apple, Samsung, Amazon, JPMorgan Chase, Deutsche Bank , Goldman Sachs를 비롯한 많은 국제 기업에서 직원의 기술 사용을 금지하거나 제한했다.
AI 입법이 필요하다
지난 달 OpenAI는 ChatGPT의 개인 정보 설정 중 일부를 강화했지만 조정이 계속되고 개인 정보 질문이 남아 있다.
컨설팅 회사인 Simply Privacy의 Frith Tweedie는 조직과 개인에게 확실히 권장하고 있다며, 채팅 기록을 확실히 끄고, 기밀 정보나 개인 정보를 입력하지 않을 것이라고 말했다.
유럽은 뉴질랜드보다 훨씬 더 엄격한 개인 정보 보호법과 훨씬 더 높은 제재를 가지고 있다.
AI 법률 전문가인 Nikki Chamberlain은 뉴질랜드가 AI를 다루는 법안이 필요하다고 말했다. 그녀는 AI의 사용과 AI가 보유한 정보, 그리고 그 정보가 앞으로 어떻게 사용될 수 있는지 규제하는 법이 제정될 때까지 정말 조심해야 한다고 경고했다.
한편 지난 달 말 프라이버시 커미셔너(the Privacy Commissioner)는 인공 지능을 사용할 때 사람들의 정보를 안전하게 유지하는 것에 대한 경고를 발표한 바 있다.
프라이버시 커미셔너 마이클 웹스터는 지난 5월 25일 목요일에 기술이 빠르게 변화함에 따라 이러한 변화에 맞게 권장 사항도 업데이트될 것이라는 경고와 함께 기대치를 발표했다.
그는 인공 지능을 사용하는 모든 조직은 사람들의 개인 정보에 매우 주의해야 한다고 강조했다.
그는 기업과 정부 기관이 피해야 할 위험 영역을 파악하기 위해 프라이버시 위험 영향 평가를 수행해야 한다며, 공공 및 민간 부문이 협력하여 기술을 안전하게 사용하는 최선의 방법에 대한 조언을 제공하기를 원한다고 덧붙였다.
직원은 상사와 개인 정보 보호 담당자의 승인을 받아야 하며 AI가 사용되는 시기를 고객에게 알려야 한다.
마이클 웹스터는 AI 기술로 인해 어떤 조치가 취해지기 전에 사람이 기술에 의해 생성된 모든 정보를 검토해야 한다고 말했다. 그는 기관이 개인 정보 영향 평가를 포함하여 기술을 사용하기 전에 실사 및 개인 정보 분석을 수행할 것을 기대했다.
마오리족을 포함하여 영향을 받는 커뮤니티 및 그룹으로부터 피드백을 구하고, 개인 정보 보호가 어떻게 시스템에 설계되었는지에 대한 정보와 증거를 명확히 하도록 제공자에게 요청해야 한다.
마이클 웹스터는 앞서 정부 기관에 서한을 보내 적절한 평가 없이 AI를 사용하는 것에 대한 주의를 요약하고 AI도구로 인해 증가하는 문제에 대한 정부 전체의 대응이 필요하다는 신호를 내보내었다.