search for




 

Generative Artificial Intelligence and Publication Ethics
J Retin 2024;9(2):99-103
Published online November 30, 2024
© 2024 The Korean Retina Society.

Jaeryung Oh

Editor-in-Chief, Journal of Retina
Department of Ophthalmology, Korea University College of Medicine, Seoul, Korea
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Body

의학연구 및 출판에 있어서 인공지능(artificial intelligence, Ai)을 이용하는 것에 관해서는 그간 많은 윤리적인 검토가 있어왔다. 생성형 인공지능의 개발과 더불어 논문 작성에 생성형 인공지능을 이용하는 사례가 늘어나면서 이러한 생성형 인공지능을 이용하여 작성된 논문을 Journal of Retina에 제출할 수 있는지에 대한 문의도 늘어나고 있다. 본 글을 통하여 의학연구 및 출판에서 인공지능의 이용에 관한 그간의 윤리적 논의에 대하여 돌아보고 현재의 기준들과 출판 관련 원칙들에 대하여 제시하고자 한다.

국립국어원의 표준국어대사전에 의하면 윤리의 사전적 의미는 ‘사람으로서 마땅히 행하거나 지켜야 할 도리’이다. 여기서 도리는 ‘사람이 어떤 입장에서 마땅히 행하여야 할 바른길’을 의미한다. 연구윤리는 ‘연구를 수행하면 지켜야 할 원칙이나 행동양식’을 의미하며, ‘속임수 기만행위 등 연구공동체 및 사회에 심각한 피해를 유발하는 학문적 과학적 위반행위’로 정의되는 연구부정행위는 ‘위조, 변조, 표절, 부당한 저자 표시, 부당한 중복게재, 연구부정행위에 대한 조사 방해 행위, 그 밖에 각 한문분야에서 통상적으로 용인되는 범위를 심각하게 벗어난 행위’ 를 일컫는다. 인공지능관련 연구자의 윤리는 인공지능 개발과 이용과정에서 지켜야 하는 연구자의 윤리기준을 말하는 것으로 인공지능 관련 윤리 지침을 개발하고자 하는 노력은 오래전부터 지속되어 왔다[1-3]. 2006년 로봇윤리 로드맵이 발표되었으며 2014년 로봇공학 규제에 대한 가이드라인발표, 2017년 아실로마 인공지능 23원칙 발표, 2019년 윤리적 설계 지침 발표, 2020년 인공지능 윤리 기준 발표, 2022년 신뢰할 수 있는 인공지능 개발 안내서에 이르기까지 점점 그 내용도 구체화되어 왔다[4]. 일반 상품 또는 제조물과 관련된 관계자는 생산자, 판매자, 소비자 그리고 국가 또는 규제기관으로 나누어 생각해 볼 수 있는 것처럼 연구와 출판에서 인공지능과 관련된 윤리 기준은 그와 관련된 사람 또는 단체에 따라서 적용되는 범위를 나누어 생각해 볼 수 있다. 예를 들면 인공지능과 관련 윤리 기준들을 개발에 참여하는 연구자, 개발회사, 그리고 이를 사용하는 연구자 또는 논문의 저자와 국가(기관)의 입장에서 나누어 살펴볼 수 있다. 첫째로 살펴볼 윤리기준들은 개발자와 관련된 논의들이다. 인공지능의 개발에 참여하는 연구자 또는 개발 회사들과 관련하여 여러 개발사들은 인공지능과 관련된 윤리 선언을 발표하여 왔다. 이들은 사회적으로 유익해야 하고 편견을 강화하지 않아야 한다는 사회에 대한 책임을 강조할 뿐 아니라 안전성과 인간을 위한 책임감 그리고 개인정보보호 등의 원칙을 인공지능 활용의 목적으로 내세우거나[5] 신뢰성과 투명성 그리고 책무성(accountability)을 강조하는 responsible AI를 주요 행동 목표로 제시하고 있다[6]. 인공지능의 생성물에 대한 개발자들의 윤리적인 명제는 인간이 인공지능의 결정을 인식하고 이를 이해할 수 있도록 하는 설명 가능성이 인공지능 시스템에 발현되도록 이를 구현하는 것과 관련되어 있다는 개발사들의 인식과 관련 있다[7]. 범용성 생성형 인공지능의 개발을 목표로 하고 있는 개발사들에게도 이러한 인식은 낯설지 않아 보인다. 인간에게 해가 되는 범용성 생성형 인공지능(artificial general intelligence, AGI)을 피하려는 노력은 현재의 생성형 인공지능에서 범용성생성형 인공지능으로의 발전을 모색하고 있는 대부분의 개발사와 개발관련 연구자들 사이에서 논의되고 있는 윤리적 이슈이다[8]. 둘째로 살펴볼 기준들은 국가 또는 기관들이 제시하고 있는 윤리 기준들이다. 개발관련 연구자들뿐 아니라 국가 또는 기관들은 인공지능의 개발 및 사용에 관한 여러 윤리기준들을 모색하여 왔다. 대표적인 것이 비영리단체인 Future of Life가 2017년 미국 캘리포니아 아실로마에서 개최한 Ai컨퍼런스에서 채택한 ‘미래 인공지능 연구의 23가지 원칙’이다[9]. 이들 원칙에도 안전과 인간의 가치, 인간의 통제력, 개인정보 보호 등 인간 중심의 가치와 관련된 원칙 외에 장애투명성(failure transparency)과사법적 투명성(judicial transparency), 그리고 책임(responsibility)이 포함되어 있다. 즉 인공지능 기술의 생성물과 관련된 투명성을 강조하면서 이를 디자인한 사람들의 책임을 강조하고 있다. OECD에서 발표한 가치에 기반한 인공지능 원칙에도 투명성과설명 가능성 그리고 책무(accountability)가 포함되어 있다. 유럽은 자국에서 유통되는 인공지능의 제조사와 배포사, 수입업자를 대상으로 하는 인공지능법의 시행을 예고하였다. 이는 위험기반 규정으로 인공지능을 허용할 수 있는 위험을 가진 인공지능과 고위험, 제한적 위험, 또는 최소한의 위험을 가진 네 종류의 인공지능으로 구분하여 제시하고 있으며 미국에서도 개발자들에게는 안전하고 효과적인 시스템, 차별 방지, 데이터 프라이버시, 사전 고지와 설명, 인적 대안 및 대비책 등의 다섯 가지 핵심 보호장치를 요구하고 있다. 국외뿐 아니라 국내에서도 이러한 윤리규범들에 논의가 계속되어 왔다. 2020년 과학기술정보통신부는 보도자료를 통해 인공지능 기술의 개발부터 활용에 이르는 전 단계에 참여하는 모든 사회구성원을 대상으로 한, 사람이 중심이 되는 인공지능 윤리 기준의 3대 기본원칙과 이 기본원칙인 인간 존엄성과 사회의 공공선 그리고 기술의 합목적성이라는 원칙하에 이루어지는 10대 핵심 요건을 발표하였다. 이들 핵심 요건에도 책임성과 투명성이 포함되어 있다. 여기서 책임성이란 ‘인공지능 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다는것을 의미한다. 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.’라는 것으로 인공지능과관련된 책임의 소재에 대하여 명확히 할 것으로 요구하고 있는것을 볼 수 있다. 또한 투명성이란 ‘인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야한다. 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야한다.’고 함으로써 설명 가능성을 통한 투명성의 필요성을 강조하고 있다. 한국지능정보사회원은 지능정보사회 윤리 가이드라인을 발표하였으며 이 원칙에는 공공성, 책무성, 통제성, 투명성이 포함되어 있다[10]. 여기서 책무성은 ‘지능정보기술 및 서비스에 의한 사고 등의 책임 분배를 명확히 하고, 안전과 관련한 정보 공유, 이용자 권익보호 등 사회적 의무를 충실히 수행해야 한다.’는 것이며 투명성은 ‘기술 개발, 서비스 설계, 제품 기획 등 의사결정 과정에서 이용자, 소비자, 시민 등의 의견을 반영하도록 노력해야 하며, 이용 단계에서 예상되는 위험과 관련한 정보를 공개, 공유하고 개인정보 처리의 전 과정은 적절하게 이루어져야 한다.’는 의미로 제시하고 있다. 이처럼 국가 또는 기관들의 인공지능 관련 윤리 기준들에도 인간에 대한 공공성 외에 책무성과 투명성의 원칙이 강조되고 있음을 볼 수 있다. 셋째로 살펴볼 윤리기준들은 주로 인공지능을 사용하는 연구자를 대상으로 하는 윤리 기준들이다. 국제의학논문편집인협의회(international committee of medical journal editors, ICMJE)는 인공지능 지원 기술에 대한 권고안을 개정하여 발표하였다[11]. 그 주요 내용은 챗봇(ChatGPT 등)은 논문 저작물의 정확성, 무결성, 독창성을 책임질 수 없고, 이러한 책임들은 저자됨에 요구되는 사항이기 때문에 저자 명단에 들어가면 안 된다는 것이다. 따라서 AI 지원 기술의 사용을 포함한 제출된 모든 자료에 대해 책임은 인간에게 있다는 내용이다. 그리고 전체 인용을 포함하여 모든 인용된 자료가 적절하게 되었는지에 대한 책임은 인간에게 있으며 AI의 생성물을 주요 소스로서 참고 문헌에 넣는 것은 허용되지 않는다는 원칙이다. 이러한 원칙이 중요한 것은 인공지능 생성물의 이용에 대한 책임이 출판에서는 인간 저자에게 있고 제조사 또는 인공지능에 있지 않다는 것을 명확히 하였다는 데 있다. 이러한 원칙을 밝힘으로써 인공지능의 생성물을 이용한 의학논문에서의 책임소재를 명확히 함으로써 향후 논란의 소지를 줄이고자 하였다는 데 그 의의가 있다. 이러한 원칙은 세계의학논문편집인협회(world association of medical editors)에서 제시한 의학출판과 관련된 chatGPT와 Chatbots들에 대한 권고안에서도 확인되고 있다[12]. 그 주된 내용은 챗봇은 작성자가 될 수 없다는 것과 저자는 챗봇을 사용할 때 투명성을 유지하고 사용 방법에 대한 정보를 제공해야 한다는 것이다. 또한 논문에서 챗봇이 수행한 작업(제시 내용의 정확성, 표절 여부 포함)과 모든 소스(챗봇이 생성한 자료 포함)의 적절성에 대한 책임이 저자에게 있음을 밝히고 있다. 즉 학계에서는 현재까지의 인공지능을 논문의 출판에 이용할 경우 그 책임이 인간 저자에게 있음을 명확히 하고 있다는 점에 주목할 필요가 있다. 이러한 원칙은 대학들의 연구자를 위한 생성형 인공지능의 활용 방안들에서도 고려되고 있는 것으로 보이며[13] 소속 연구자들이 생성형 인공지능을 사용할 때 자료 및 출처를 확인하고 생성물의 사실 여부를 연구자들이 직접 확인할 것으로 요구하고 있다. 한국연구재단 또한 평가 시 생성형 인공지능을 사용하지 않도록 권고하고 있는 등[14] 생성형 인공지능의 사용에 대한 원칙들을 제시하고 있다. 이러한 생성형 인공지능의 이용에 대한 관련 윤리선언들은 연구자들뿐 아니라 일반이용자들에 대하여도 마찬가지로 중요하며 이를 일반인들에게도 제시하여 올바른 생성형 인공지능 사용에 대한 가이드라인을 제공하기에 이르고 있다.

인공지능이 발달함에 따라서 자율성을 지닌 생성형 인공지능에게 그 책임의 일부를 나눌 수 있는가에 대한 논의가 이루어지고 있다. 일반 상품 또는 제조물에서와 달리 이는 인공지능과 관련된 관계자는 개발에 참여하는 연구자, 개발회사, 그리고 이를 사용하는 연구자 또는 논문의 저자와 국가(기관) 외에 인공지능 자체가 윤리의 대상이 될 수 있는가에 대한 논란이 바로 그것이다. 로봇윤리 라는 용어는 로봇공학자인 지안마르코 베루지오가 2002년 처음 사용하였다고 한다[1]. 그러나 일반적으로는 1942년 아이작 아시모프에 의하여 제시된 로봇공학 삼원칙이 더 잘 알려져 있다. 이는 로봇이 지켜야 할 세 가지 원칙으로 인간에게 해가 되지 않아야 한다는 것과 인간에게 복종할 것 그리고 자신을 보호할 것으로 되어 있다. 이러한 종류의 윤리는 인간이 주체인 ‘인공지능의 윤리’와는 구분되어 기계 윤리로 구분하여 부르기도 한다[1]. 기계 윤리를 설계하는 방식으로 과거에 제시되었던 것이 로봇공학 3원칙, 공리주의 의무론과 같은 하향식 구현이며 대규모 데이터의 학습 등 진화를 통한 도덕 학습을 이용하는 것이 상향식 학습을 통한 구현이다. 또는 이를 혼합한 혼합식 접근을 통하여 기계 윤리를 완성시키고자 하는 노력이 있어 왔다. 그러나 근본적으로는 인공지능이 윤리의 주체가 될 수 있는가에 대한 의문이 여전히 논란의 대상이 되고 있다. 이는 인공지능의 수준과 인공적 도덕 행위자 논란, 그리고 지능 대확산 시대에 필요한 윤리 기준의 필요성과 더불어 지능형 로봇윤리헌장의 대두라는 화두를 낳고 있다.

인공지능이 발달하게 됨에 따라 인공지능의 능력에 따라 여러가지 분류방식으로 구분되어 왔다. 흔히는 약한 인공지능과 강한 인공지능으로의 분류이다. 참고자료를 빠르게 찾는 등의 주어지 목적을 수행하는 약한 인공지능에서부터 인간의 지능을 뛰어넘는 강한 인공지능을 일컫는 말이다. 아렌드 힌츠는 반응하는 기계, 제한된 기억을 활용하는 기계, 마음을 가진 기계, 그리고 자의식을 가진 기계의 네 종류로 구분하였다[15]. 생성형 인공지능이 개발되면서 이러한 생성형 인공지능은 chatGPT와 같은 Generative AI와 범용성일반인공지능인 AGI, 그리고 사실상 모든 관심 영역에서 인간의 인지능력을 상회하는 지능을 가진 초지능(Superintelligence)으로 구분되고 있다. 현재의 생성형인공지능인 chatbot처럼 질문에 답하는 수동적인 AI assistance를 넘어 사용자의 맥락에 맞춰 능동적을 대응하고 일상을 자동화하는 AI 파트너 혹인 AI 비서라 불리는, 그리고 역동적인 세상에서 자율적으로 의사 결정을 내릴 수 있는 AI 모델과 알고리즘을 가지고 언어, 소리 또는 음성, 동영상을 처리할 수 있는 멀티모달 모델을 지닌 AI agent 들이 개발되고 있다[16,17].현재 논문의 작성에 이용되고 있는 수준의 생성형 인공지능은 chatbot이라는 점에서 ‘현재의 Chatbots은 도구(tool)이다. 그러므로 Chatbot은 책임질 위치에 있지 않다’는 편집인단체의 권고와는 달리 곧 다가올 미래의 인공지능의 윤리주체로서의 등장을 예상하기는 어렵지 않다. 그러나 이러한 예상에도 불구하고 인공지능시스템에 대해 도덕적(not 법적) 책임을 물을 수 있는가는 다른 문제라는 견해가 존재한다. 이는 인공적 도덕 행위자가 가능한가에 대한 논란이기도 하다[15]. 이는 인공지능의 존재론적 지위와도 관련 있는 것으로 이를 논의하기 위해서는 인공지능이 개념을 가질 수 있는가? 또는 인공지능이 행위의 능력을 가졌는가? 라는 질문에 먼저 대답하여야 할 것이다. 이러한 의문은 로봇이 자율적 주체가 될 수 없다는 오래된 논증에서 찾아볼 수 있다. Stahl은 도덕적 주체가 되기 위해서는 자율성이 있어야 하는데 로봇은 맥락적 의미를 파악할 수 없는 존재이므로 자율성을 가지고 있다고 볼 수 없고 결국 로봇이 도덕적 주체가 될 수 없다고 주장하였다[18]. 이러한 주장은 현재개발되고 있는 '이해하고 혁신하며 적응할 수 있는 능력 보유/인간의 인지 능력을 포괄적으로 모방’하는 AGI나 미래에 개발될 것으로 기대되고 있는 '사실상 모든 관심 영역에서 인간의 인지능력을 상회하는 지능'을 가진 초지능(Superintelligence) 시대에도 적용될 수 있을 것이라 생각하기도 하지만 인간과 유사한감각을 사용하는 AI agent 시대에 필요한 기계 윤리가 필요하다는 견해도 있다. 이러한 견해는 전통적인 서구의 윤리관과 구분되는 동양의 윤리관에 비추어 논의되고 있다[19]. 기계 윤리에서 중요한 논란은 기계 즉 인공지능에게 책임을 지울 수 있는가에 하는 것이다. 전통적으로 책임(responsibility)은 자유의지를가진 인간에게만 부여된다는 것이 정설이다. 이는 행위자의 자율성 유무에 따라 자율성을 지닌 행위자의 부도덕한 행위가 비난의 대상이 될 수 있다는 아리스토텔레스와 칸트로 이어지는논점이기도 하다. 인간에 의하여 설계된 그리고 인간에 의하여학습된 인공지능이 진정한 자율성을 가질 수 있는가 하는 점뿐 아니라 ‘사실상 모든 관심 영역에서 인간의 인지능력을 상회하는 지능’을 가진 초지능(Superintelligence)이 출현한다고 하더라도 진정한 맥락적 의미를 이해하는 인공지능이 가능할 것인가에 대한 의구심이 인공지능에게 책임을 지울 수 있을 지에 대한 부정적인 견해의 근거가 되고 있다. 그러나 인공지능에게 책임를 지울 수는 있다는 견해도 있다. 동양철학에서의 책임은 도의상 하지 않으면 안된다는 의미의 의무 혹은 책무 개념과 가깝다고 알려져 있다. 그러므로 이러한 관점에서 본다면 책임은 인간이 아닌 다른 존재에도 부여될 수 있는 것이며 인공지능 또한도덕적 책임 다른 말로는 도덕적 책무를 지울 수 있다는 견해이다. 흔히 책임으로 번역되는 responsibility는 일과 관련된 것으로 어떤 업무에 대한 책임을 지고 수행하는 위치에 있다거나어떤 결과에 대한 총괄적인 책임을 지고 이를 수행한다는 의미이나, 또 다른 영어표현인 accountability는 어떤 일의 결과에 초점이 맞추어진 번역으로 ‘obligation to report, explain, or justify something’의 의미로 번역되어 벌어진 일을 보고하고 설명하는등의 책무의 의미에 가깝다. 그러므로 기계 윤리는 기계에게 도덕적 책무를 지우자는 것과 비슷하며 이 도덕적 책무에는 인간중심주의, 투명성, 공정성, 책임성, 상호균형 등이 있다는 견해이다[20]. 이들은 실제로는 인공지능의 설계 시에 반영되는 것이나 적어도 인공지능의 투명성은 상용화된 미래의 인공지능에서 꼭 필요한 가치라는 점을 고려하면 스스로 학습하여 인간과 비슷하거나 인간보다 뛰어난 상태가 되더라도 지켜야 하는 기계 윤리의 기준이라는 점은 명확해 보인다. 이러한 원칙에 대한 공감은 현재 논의되고 학계의 여러 원칙들에서도 살펴볼 수 있다. 유럽연합 집행위원회 부의장은 ‘인공지능 신뢰성은 갖추면 좋은 것이 아니라 반드시 갖추어야 하는 것이다.’라고 하였다[21]. EU ethics guideline에서는 신뢰 가능한 인공지능이란 합법적이고 윤리적이며 견고한 인공지능을 의미한다고 설명하고 있다[22]. 그러므로 기계 윤리로서 인공지능의 책무는 신뢰성이 주된 것이며 이는 투명성, 설명 가능성, 목적 지양성 등을 기반으로 판단될 수 있을 것이다. 그러나 현재의 기술로도 인공지능의 투명성을 확보하는 것은 쉽지 않다. 인공지능의 알고리듬을 설명하기 어렵다. 학습 데이터 세트나 이를 선택하는 방법에 대한 가시성이 부족하다는 점 그리고 학습데이터 안에 존재하는 편향에 대하여는 파악이 쉽지 않다는 점등이 그 이유로 제시된 바 있다[23]. 실제로 알고리듬을 투명하게 공개한다고 하여도 이를 인간이 이해하는 것이 쉽지 않다. 그러므로 아실로마 23원칙에서 제시된 것처럼 ‘적어도 인공지능 시스템이 해를 입히는 경우 그 이유를 확인할 수 있어야 한다. 사법 결정에 있어 인공지능이 개입할 경우, 권한 있는 인간 기관이 감사할 수 있는 충분한 설명을 제공해야 한다.’는 면에서의 투명성은 보장되어야 할것으로 요구되고 있다. 또한 이러한 투명성은 인간이 이해할 수있는 방법으로 제시되도록 하고 있다. 투명성을 확보하기 위한방법으로 제시된 것이 설명 가능한 인공지능의 설계와 신경과학 인공지능을 이용한 방법이다. 이 중 설명 가능한 인공지능은 ‘인공지능 행위와 의사결정을 사람이 이해할 수 있는 방식으로그 과정을 해석하거나 결과에 도달한 이유를 알 수 있도록 도와주는 기술'로 인공지능의 설계 시에 결과물을 설명해 주는 설명모델과 인터페이스를 인공지능 알고리듬에 추가함으로써 현재의 기술로도 구현되고 있는 기술이다[24]. EU에서 발표한 Ethics Guideline for Trustworthy Artificial Intelligence에는 인간의 자율성 존중 원칙, 해악금지 원칙, 공정성 원칙과 더불어 설명 가능성 원칙이 인공지능의 4원칙의 하나로 포함되어 있다. 그러나모든 인공지능이 설명 가능해야 하는 것은 아니다. 이는 효율성 감소와 환경오염 등의 또 다른 문제와도 관련되어 있기 때문이다. 그리고 문제가 데이터를 만들어내는 인간에게 있는 한 알고리듬을 투명하게 한다고 하여도 책무성을 보증하기 어려우며투명성과 책무성은 인과관계가 아니라는 견해도 있다. 그러므로이러한 투명성의 원칙은 현재 그리고 미래의 인공지능에게서도일부의 위험한 인공지능에게 요구되는 책무로 남을 가능성도존재한다. 우리나라의 법 중에 지능형 로봇 개발 및 보급 촉진법에는 ‘지능형 로봇윤리헌장’의 제정에 관한 규정이 존재한다. 비록 이러한 윤리 헌장이 아직 제정된 것은 아니나 이러한 규정에도 신뢰할 수 있는 인공지능에 대한 요구가 반영될 것으로 보인다. 미래의 인공지능에게는 이러한 투명성 또는 신뢰할 수 있는 인공지능이라는 책무가 주어질 것으로 보인다.

그러나 현재의 인공지능은 도덕적 책임 또는 책무를 질 위치에 있지 않다는 것이 편집인단체의 판단이다. 그것인 현재 단계의 생성형 인공지능이 ‘Agent’라기 보다는 도구 즉 ‘Tool’이라는 판단에 기인한다. 그러므로 이를 사용하는 연구자의 책임이 강조되어야 한다는 입장이다. 이러한 사용자의 의무를 강조하는 태도는 인공지능 분야에서만 국한된 것은 아니다. 데이터 3법 등과 같이 빅데이터활용과 연구가 기존 연구들과 구분되는 점 중 하나가 개발자 또는 생산자 보다 사용자의 의무를 강조하고 있음을 그 예로 들 수 있을 것이다. 위에서 살펴본 것처럼 최근 국제의학학술지편집인협의회는 논문 출판에서의 생성형인공지능의 이용에 관한 가이드라인을 개정하였다. 그 주된 내용은 chatbot, large language models 또는 이미지생성모델을 논문 작성에 사용한 경우 반드시 밝히도록 하는 정책이다. 또한 이러한 인공지능은 저자의 자격에 되지 않으므로 이를 논문 작성에 이용한 경우 방법, 초록, 편집인에게 동봉하는 편지, 또는 감사의 글 등의 적절한 곳에 이를 밝히고 저자로 명시하거나 또는 인공지능을 참고문헌으로 인용하지 않도록 주의하도록 하고 있다.

Journal of Retina는 국제의학학술지편집인협의회와 세계의학학술지편집인협회의 권고사항을 존중하고 있다. 이에 따라 Journal of Retina는 이러한 생성형 인공지능을 이용한 논문 출판에 대한 가이드라인을 명확히 하여 제시하였다. 그 주요 내용은 다음과 같다. 저자들은 생성형 인공지능을 논문 작성에 사용한 경우 편집인에게 미리 알려야 할 의무가 있다. 저자는 연구의 설계를 위하여 또는 연구방법의 일부로 이러한 기술을 이용하는 경우에는 이를 어떻게 이용하였는지 초록과 방법 그리고 편집인에게 보내는 편지에 그 내용을 자세히 제시하여야 한다. 여기에는 사용된 모델과 도구의 이름, 버전, 및 제조업체를 포함하여 인공지능에게 요청한 질의(prompt) 등의 모든 내용이 포함되어야 한다. 저자는 생성형 인공지능 또는 생성형 인공지능 관련 기술을 논문의 글쓰기 과정에 있어서 이용하려는 경우 Journal of Retina는 가독성을 증진시키는 등의 목적으로만 사용한 경우 이를 허용하며 그 정확성, 표절, 저작권 등과 관련된 책임은 저자에게 있다. 또한 이경우 저자들은 감사의 글(acknowledgement)에 그 이용에 대한 내용을 자세히 표시하고 편집인에게 보내는 편지를 통해 편집인에게 생성형인공지능의 글쓰기과정에서의 이용에 대하여 미리 알려야 한다. 저자들은 인공지능을 논문의 저자로 등재하거나 또는 인공지능을 인용해서는 안 된다. 전문가심사자들은 논문을 리뷰하는데 편집인의 별도의 허락없이 인공지능을 사용하여서는 안 된다. 제출된 논문은 저자와 편집인(전문가심사자)들과의 사이에 논문의 내용뿐 아니라 논문의 제출 사실을 포함한 일체의 내용에 대하여 비밀이 유지될 것이라는 신뢰를 유지하고 있다. Journal of Retina는 이러한 저자와의 약속을 존중하며 제출된 원고가 전문가심사자 외에 제3자 또는 제3의 파트에 유출되지 않도록 할 책임이 있다. 생성형 인공지능의 발달에 따라 앞으로 이런 정책은 계속 변화할 것으로 보이나 현재의 기준에 맞추어 논문 출간 시 그 정책에 반영하는 것은 과학계에서 지속적으로 이루어지고 있는 일이며 Journal of Retina가 추구하고 있는 가치이기도 하다. 시대의 변화에 따라 학계의 합의에 의하여 그 정책을 개선하고 시의적절하게 반영하는 것 또한 편집인의 역할이기 때문이다.

Conflicts of Interest

The author declares no conflicts of interest relevant to this article.

References
  1. Kim H. Artificial intelligence and ethics. In: Choi K, ed. Artificial intelligence Act. Seoul: Parkyoungsa, 2024;81-2.
    CrossRef
  2. EURON Roboethics Roadmap, Rel. 1.1 [Internet]. 2006 [[cited 2024 Oct 29]].
  3. RoboLaw [Internet]. 2014 [[cited 2024 Oct 29]].
  4. Kim H. Artificial intelligence and ethics. In: Choi K, ed. Artificial intelligence Act. Seoul: Parkyoungsa, 2024;84-5.
    CrossRef
  5. AI Principles [Internet]. Google [[cited 2024 Oct 29]].
  6. Principles and approach [Internet]. Microsoft [[cited 2024 Oct 29]].
  7. Everyday Ethics for Artificial Intelligence [Internet]. IBM Corp. [[cited 2024 Oct 29]].
  8. OpenAI Charter [Internet]. OpenAI [[cited 2024 Oct 29]].
  9. Asilomar AI principles [Internet]. Future of Life Institute [[cited 2024 Oct 29]].
  10. Introduction to the National Information Society Ethics Guidelines and National information Ethics Charter [Internet]. Ministry of Science and ICT [[cited 2024 Oct 29]].
  11. Recommendation [Internet]. ICMJE [[cited 2024 Oct 29]].
  12. WAME Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications [Internet]. WAME [[cited 2024 Oct 29]].
  13. Generative AI utilization guidelines for school members (instructors, learners, researchers) [Internet]. Yonsei University [[cited 2024 Oct 29]].
  14. Recommendations for responsible use of generative artificial intelligence (AI) tools [Internet]. National Research Foundation of Korea [[cited 2024 Oct 29]].
  15. Jeong WS. Direction of artificial intelligence ethics. In: The Korean Association for Posthuman Society, ed. Artificial Intelligence and New Norms. Paju: Acanet, 2018;chap. 7.
  16. Shin DY. 'AI agent' that goes beyond an assistant and becomes a companion of the future. MIT Technology Review 2024;15:8-11.
  17. Heikkilä M. What is an AI agent?. MIT Technology Review 2024;16:40-43.
  18. Go IS. Ethics of Artificial Intelligence and Robots. Seoul: Sechang Publish, 2022;217.
  19. Lee JW. Exploration of accountability-oriented artificial intelligence ethics: An East-West philosophical approach. In: Lee JW, Ko JS, Lee YE, eds. Ethics of artificial intelligence. Paju: Hanul, 2016;chap. 7.
  20. Jeong CM. AI/Data law guide. Seoul: Parkyoungsa, 2024;31-3.
    CrossRef
  21. Han SK. Trustworthy AI. Seoul: Cloud9, 2021;17.
    CrossRef
  22. Ethics guidelines for trustworthy AI [Internet]. European Commission: Directorate-General for Communications Networks, Content and Technology [[cited 2024 Oct 29]].
  23. Han SK. Trustworthy AI. Seoul: Cloud9, 2021;165-6.
    CrossRef
  24. Han SK. Trustworthy AI. Seoul: Cloud9, 2021;169-74.
    CrossRef


November 2024, 9 (2)
Full Text(PDF) Free

Social Network Service
Services

Cited By Articles
  • CrossRef (0)
  • CrossMark
  • Crossref TDM