“생성형 AI, 학계서 ‘이미 심각한 연구윤리 문제’ 인식 확산” 작성일 12-13 13 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="fjwfbi0HlE"> <figure class="figure_frm origin_fig" contents-hash="15b994d0f00e5b1553edfa08cfe556dd79fde05372eb9602e3c07b6ba7358692" dmcf-pid="4Ar4KnpXTk" dmcf-ptype="figure"> <p class="link_figure"><img alt="생성형 AI, ‘이미 심각한 연구윤리 문제’(그림=챗GPT 생성)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/13/dt/20251213082628311gzah.png" data-org-width="640" dmcf-mid="V6E2qdFYyD" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/13/dt/20251213082628311gzah.png" width="658"></p> <figcaption class="txt_caption default_figure"> 생성형 AI, ‘이미 심각한 연구윤리 문제’(그림=챗GPT 생성) </figcaption> </figure> <p contents-hash="3977fe1beff6c9af231514fd96950635fee15c53398511f727bf6ce970e2be26" dmcf-pid="8cm89LUZlc" dmcf-ptype="general"><br> 생성형 인공지능(AI) 활용이 연구 윤리를 위협하는 요소로 작용할 수 있다는 인식이 학계 전반에서 빠르게 확산되고 있는 것으로 나타났다.</p> <p contents-hash="cc78b5ae199d13f80d5bfbf53f12737306cc4260108b0e3e66683895979dfdad" dmcf-pid="6ks62ou5vA" dmcf-ptype="general">13일 한국연구재단이 발표한 ‘2024년 대학 교원 연구윤리 인식 수준 조사’ 결과에 따르면, 전국 대학 교원 연구자 2079명을 대상으로 한 설문에서 생성형 AI 활용이 학계에서 이미 심각한 연구윤리 문제라고 응답한 비율은 13.2%로 집계됐다. 이는 관련 조사를 처음 시작한 2023년(5.4%) 대비 두 배 이상 증가한 수치다. 2024년 조사(9.1%)와 비교해도 가파른 상승세다.</p> <p contents-hash="721bfd456d8e431ff9de4e127d1bcc84fc3aa20f0096812988cae41dbaa9835e" dmcf-pid="PwCx4NqFCj" dmcf-ptype="general">‘향후 문제가 될 것’이거나 ‘이미 심각한 문제’라고 인식한 응답 비율도 해마다 늘고 있다. 2023년 53.5%에서 2024년 61.9%, 올해는 65.8%로 조사됐다. 반면 ‘걱정할 수준이 아니다’라는 응답은 지난해 26.3%에서 올해 25.7%로 소폭 감소했다.</p> <p contents-hash="051695ed94d9f52830edf2d90906d45db74e648b7daff2716e556f2ec87353ff" dmcf-pid="QrhM8jB3vN" dmcf-ptype="general">다만 논문 작성 과정에서 생성형 AI를 활용하는 행위 자체가 연구부정행위에 해당하지 않는다는 인식은 60.8%로 여전히 과반을 차지했다. 그러나 AI 활용 사실을 논문에 명시하지 않을 경우 연구부정행위에 해당한다는 응답도 52.1%로 절반을 넘었다. AI 활용의 ‘허용 여부’보다 ‘투명성’이 더 중요한 기준으로 떠오르고 있음을 보여준다.</p> <p contents-hash="2bca0cdd745a317a1ea2c24cef787a8dd84f19d8d145af13c902d1361fd63a42" dmcf-pid="xmlR6Ab0Ca" dmcf-ptype="general">논문 심사나 연구과제 평가 과정에서 생성형 AI를 활용하는 것이 비밀 유지 의무 위반에 해당하는지를 묻는 질문에는 ‘그렇다’(44.5%)와 ‘그렇지 않다’(42.0%)는 응답이 엇비슷하게 나와, 학계 내 인식이 여전히 갈리는 것으로 나타났다.</p> <p contents-hash="16fb88e7b7d56ef2c04bbf2a89ff4bca7d8cc271a7f366803f312c8e5773b193" dmcf-pid="yK8YSUrNCg" dmcf-ptype="general">한편 생성형 AI를 연구에 활용한 경험이 있는 연구자 중 95.8%는 문법·표현 수정 등 윤문 작업에 사용했다고 답했으며, 선행 연구 검토(68.9%)가 뒤를 이었다.</p> <p contents-hash="36f3080f0cace226074cc3f1f08d8af985a2f8bfb2ba7cdb41c9b8e0eb45c3a3" dmcf-pid="W96Gvumjlo" dmcf-ptype="general">이번 조사 결과는 생성형 AI를 둘러싼 학계의 인식이 ‘기술 활용의 편의성’에서 ‘윤리적 통제의 필요성’으로 빠르게 이동하고 있음을 보여준다는 점에서 의미가 크다. 특히 AI 활용 자체보다는 활용 사실의 비공개, 책임 주체의 불명확성, 심사 과정에서의 사용 문제가 핵심 쟁점으로 떠오르고 있다.</p> <p contents-hash="1e6a788a66ce979902608ebc820829a3348bdc228c2efc75c5041f5424e39b75" dmcf-pid="Y2PHT7sASL" dmcf-ptype="general">윤문이나 자료 정리 등 보조적 활용은 이미 연구 현장에서 일상화됐지만, 명시 의무·책임 귀속·심사 공정성에 대한 기준은 여전히 불분명하다. 이로 인해 연구자 개인의 판단에 윤리적 부담이 과도하게 전가되고 있다는 지적도 나온다.</p> <p contents-hash="ee41b6d20b1061aa777cc64e7d76fd5d8716485c73d4bb381f409ff65d925f86" dmcf-pid="GVQXyzOcvn" dmcf-ptype="general">전문가들은 향후 ▲논문·과제 제출 시 AI 활용 범위와 방식의 명문화 ▲심사·평가 단계에서의 AI 사용 가이드라인 마련 ▲연구윤리 교육에 AI 활용 항목을 포함하는 등 제도 차원의 정비가 불가피하다고 보고 있다. 생성형 AI가 연구의 ‘도구’로 정착하기 위해서는, 기술 발전 속도에 걸맞은 윤리 기준 정립이 선행돼야 한다는 지적이다.</p> <p contents-hash="08bde27a241ac9f64df76ece80558159567ec2c634afc6f003939b5aac8c2809" dmcf-pid="HfxZWqIkWi" dmcf-ptype="general">보고서는 “2023년 이후 생성형 AI 활용을 연구윤리 측면에서 심각한 문제로 인식하는 비중이 지속적으로 증가하고 있다”며 “정책적·제도적 대안 마련이 시급하다”고 지적했다.</p> <p contents-hash="0ae377a9246c3bab17e317e57030f56fffe63e624cac0ef5f453cf51ad0a86f9" dmcf-pid="X4M5YBCEyJ" dmcf-ptype="general">이준기 기자 bongchu@dt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털타임스. 무단전재 및 재배포 금지.</p> 관련자료 이전 이성경·한효주·김태리 하객 풀메 난리났다… 셋 중 하나만 따라 해도 빛난다 12-13 다음 빙속 김민선 37초 85 6위, 세계기록 보유 콕 37초 05 우승 12-13 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.