복음과도시(TGC)는 25일 패트릭 밀러 목사(Patrick Miller, The Crossing 교회 담임)의 ‘교회는 AI를 내칠 것인가 끌어안을 것인가?’라는 제목의 글을 번역해 게재했다.
패트릭 밀러 목사는 “생성 AI는 (말하자면, 텍스트, 이미지, 코드, 비디오 등을 생성할 수 있는 알고리즘은) 설교 연구, 설교 그래픽 생성, 소그룹 질문 생성에 도움을 줄 수 있다. 더불어 설교, 블로그 및 팟캐스트 스크립트 작성도 수행할 수 있다. 영적 질문이 있는 평신도가 목사와 멘토를 찾는 대신에 얼마든지 AI에 의존할 수도 있다. AI가 기꺼이 그들에게 ‘지혜’를 제공할 것”이라고 했다.
이어 “모르는 게 없는 이 컴퓨터는 도대체 어디에서 정보를 얻고 지식을 만들어내는가. 모든 대규모 언어 모델(LLM)은 특정 데이터 세트를 사용하여 학습한다”묘 “예를 들어 ChatGPT는 2021년 이전 버전의 인터넷에서 교육을 받았다. 질문마다 질문의 매개 변수와 만족스러운 답으로 간주 되는 자체 교육을 바탕으로 나름의 만족스러운 답변을 예측한다. LLM은 크라우드 소싱된 답변을 제공하며 모두를 만족시키는 답을 제공하도록 조금씩 수정된다”고 했다.
따라서 “하늘이 무너지고 있다고 말하는 사람들이 아주 틀린 건 아니다. 광범위한 인터넷 세계마저도 장난처럼 보이게 만들 정도로 AI는 엄청난 기술 변화이다”라며 “그러나 하늘이 무너지고 있다고 경고하는 사람들 대부분이 인정하지 않는 한 가지 사실이 있다. 하늘이 무너진 건 이미 한참 전”이라고 했다.
그는 “우리는 이미 안개 속에서 살고 있다. ChatGPT가 AI에 대한 대중의 인식을 일깨운 건 사실이지만, 그렇다고 AI를 일상생활로 도입한 게 ChatGPT는 아니”라며 “이미 오래전부터 맞춤법 검사, Google 검색, 내비게이션 앱, 차량 공유 앱, Siri, Alexa, 음성 텍스트 변환, 소셜 미디어 피드, 비디오 게임, 얼굴 인식, 스팸 필터, AI 코딩 앱, AI 자동화 배송 및 물류, AI 지원 의료 스캔, 나아가서 AI 전쟁에 이르기까지, AI는 이미 우리 주변에서 존재했다”고 했다.
그러면서 “온라인에서 지금 당신이 보는 내용 대부분은 AI가 당신의 취향을 분석해서 내어놓은 내용이다. AI가 위험하다며 당신이 온라인에 분노를 표출할 때 정작 그 분노를 중재하는 것도 다 AI이다. 누가 무엇을 보는지 결정하는 것도, 어디에 참여하고 또 어떤 식으로 현실을 보도록 할지를 조종하는 것도 이미 AI이다”라며 “이러한 예 가운데 그 어느 것도 기술 자체를 다루지 않는다. 아무것도 아는 게 없는 우리가 기계 학습, 신경망 또는 알고리즘 계산에 분노할 수 있는가”라고 했다.
그러면서 패트릭 밀러 목사는 윤리적 고찰이 빠진 AI 등을 비롯한 기술사용에 대해 경계했다. 그는 “모두가 ‘하늘이 무너진다’라고 외치는 건 아니다. 주변의 구름을 의식하지 않는 사람도 적지 않다. AI가 몰고 오는 안개에 대해서는 알지만, 심각한 윤리적 질문 없이 무작정 AI를 받아들이는 그리스도인도 있다”고 했다.
이어 “유용성이 사용을 정당화한다는 생각을 받아들이는 실용주의자이다”라며 “그들은 단지 관리적인 질문만 던진다. 시간 절약이 가능할까? 돈을 아낄 수 있을까? 더 많은 사람에게 다가가는 데 도움이 될까?”라고 했다.
그는 “교회와 같은 기관을 이끄는 누구에게나 실용적인 질문은 중요하기에 무시해서는 안 된다. 문제는 그런 질문만으로는 충분하지 않다. 행동은 효율성의 규범이 아니라 하나님 나라의 규범에 부합해야 한다”고 했다.
아울러 “생성 AI는 얼마든지 (단조롭고 관습적인) 설교를 작성할 수 있다. 그러나 설교는 목회자의 성경적 의무이다. 이 책임을 소홀히 하는 것은 비윤리적일 뿐만 아니라 현명하지 않다”며 “아무리 발전된 기계라도 예배에 참석한 교인들의 마음을 알 수는 없다. 따라서 그들은 결코 살아 움직이는 진리로 교인들을 인도하기 위해 그때그때 설교를 조율할 수 없다. AI는 결코 설교 내내 우리가 의지하고 또 우리를 인도하는 성령님에게 맞춰질 수 없다는 것이다”라고 했다.
특히 “윤리적 신념 없이 AI를 받아들인다면, 윤리적 실책을 범하게 될 것이다”라며 “윤리적 원칙이 y라는 목표 달성에 x의 수행이 가장 효율적이라면 x를 수행하는 것이 옳다는 식의 공리주의로 그칠 것이기 때문”이라고 했다.
그는 “사도행전 17:26에서 바울은 아덴 사람들에게 말한다. ‘그분은 인류의 모든 족속을 한 혈통으로 만드셔서, 온 땅 위에 살게 하셨으며, 그들이 살 시기와 거주할 지역의 경계를 정해 놓으셨습니다.’ 국가 질서를 주권적으로 정하시는 하나님을 믿는다면, 우리가 지금 초기 AI 시대에 사는 게 우연이 아니라는 사실도 함께 믿어야 한다”고 했다.
아울러 “다윗이 ‘사는 동안 하나님의 뜻을 받들어 섬긴’(행 13:36)것처럼 우리도 이 세대에서 하나님의 뜻을 섬기도록 부르심을 받았다”며 “지금 우리가 AI를 어떻게 받아들일 것인지에 관한 내용은 우리 자녀들이 물려받은 윤리적 규범에까지 영향을 미칠 것이다. 따라서 우리는 세대를 초월하여 AI를 깊이 숙고해야 한다”고 했다.
아울러 “실용주의자들은 미래의 결과에 대해 궁금해하지 않는다. 지금 당장 잘할 수 있는 것이 무엇인가에만 집중하기에 멀리 바라보지 않는 경향이 있다. 진짜 눈을 크게 뜨고 감시해야 할, 보이지는 않지만 진짜로 우리에게 해를 끼치는 사악한 AI의 운영 방식에는 둔감하면서 말이다”라고 했다.
따라서 “우리는 다양한 역량(신학, 윤리 및 기술)을 가진 사람들을 모아 일상생활에 미치는 AI의 윤리적 파급 효과를 탐구해야 한다. 윤리적으로 허용되는 용도가 무엇인지를 구체적으로 연구함으로써 평신도가 자신의 AI 사용을 스스로 평가할 수 있는 간단한 규범을 만들 필요가 있다”고 했다.