[표지로 읽는 과학] 가장 공정한 얼굴인식 AI 데이터 작성일 12-06 37 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="9UTM6vOcR9"> <figure class="figure_frm origin_fig" contents-hash="28fd68debc11958d3af6d41c471b6c2a4b2e643fbb70018675e838229b59c839" dmcf-pid="2uyRPTIkMK" dmcf-ptype="figure"> <p class="link_figure"><img alt="네이처 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/06/dongascience/20251206080204922fjjv.png" data-org-width="440" dmcf-mid="KWxYvQV7i2" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/06/dongascience/20251206080204922fjjv.png" width="658"></p> <figcaption class="txt_caption default_figure"> 네이처 제공 </figcaption> </figure> <p contents-hash="a072c5eff213a3e5e1f81621a90bc2ad6371069a1fccf1cba4cbfce02ae5d7e1" dmcf-pid="V7WeQyCELb" dmcf-ptype="general">이번 주 '네이처' 표지에는 다양한 사람들을 여러 조건과 환경에서 촬영한 사진이 실렸다. 공개된 사진은 기존 인공지능(AI)이 얼마나 공정하게 얼굴을 인식하는지 평가하기 위한 데이터다.</p> <p contents-hash="609c6f282ba2d99fe70689ccaea799a54dcb81fa0db4a409a8379f30392cdb96" dmcf-pid="fzYdxWhDRB" dmcf-ptype="general">얼굴 인식 AI는 인터넷 공간에서 동의 없이 긁어 모은 수천만 장의 사진을 학습해 개발된다. 그 결과 특정 인종이나 성별, 연령대를 과소·과대 표현해 판단을 내리는 ‘AI 편향’ 문제가 끊이지 않았다.</p> <p contents-hash="abe89196b30afbfca0cb0bd848d1ac20b8daa73fd467814aefbd5027f5a28b7e" dmcf-pid="4haptgd8nq" dmcf-ptype="general">앨리스 시앙(Alice Xiang) 박사가 이끄는 소니AI 연구팀은 이런 문제를 해결하기 위해 세계 81개국 1981명의 ‘동의받은 얼굴’ 1만318장으로 구성된 새 데이터세트인 ‘공정한 인간 이미지 평가 기준(FHIBE, Fair Human-Centric Image Benchmark)’을 만들고 네이처에 11월 5일(현지시간) 발표했다. 연구내용은 4일 네이처 표지로 소개됐다. </p> <p contents-hash="7da2abb4c8a9112f60f3dfc1cc166f0bb0af8d323ebfc8aaa95bd2d6420b4bda" dmcf-pid="8lNUFaJ6Jz" dmcf-ptype="general">연구팀은 사진 제공자에게 프로젝트의 목적과 잠재적 위험을 충분히 설명하고 ‘철회 가능한 동의’ 절차를 거쳐 이미지를 수집했다. 모든 데이터는 주요 개인정보 보호 규정을 준수해 확보됐다.</p> <p contents-hash="dff2362a6e0789ded13cdde96190214934c277f1f288fab5917426a1d2bd9550" dmcf-pid="6Sju3NiPd7" dmcf-ptype="general">사진 제공자들은 나이, 대명사(he/she/they), 조상이 살던 지역, 피부색, 모발색 등 인구통계 정보를 직접 기입해 데이터의 정확성과 다양성을 높였다.</p> <p contents-hash="59a4d67b1dae1500fbc97e6e4e5d386d3476c2fa2285e6b444df4db196028c9a" dmcf-pid="PvA70jnQLu" dmcf-ptype="general">연구팀은 여기에 조명, 카메라 각도, 촬영 거리, 배경 환경, 표정, 포즈 등 AI 인식에 영향을 미치는 요소까지 70여 개 항목으로 세밀하게 주석을 달았다. 주석 덕분에 FHIBE는 AI가 사람의 외형뿐 아니라 조명, 환경, 카메라 세팅 같은 주변 요인에 어떻게 편향되는지도 진단할 수 있는 세계 최초의 ‘다층 윤리 데이터세트’가 됐다.</p> <p contents-hash="19fc6d8c71d78c79ad9799ffbfdbc71d3463a3dae74ae86d2d28808e74f78441" dmcf-pid="QTczpALxnU" dmcf-ptype="general">FHIBE로 오픈AI의 CLIP, 세일즈포스 리서치의 BLIP-2 등 기존 얼굴 인식 모델을 평가한 결과 AI는 밝은 피부와 젊은 연령대, 아시아계 인물에서 높은 정확도를 보였다. 반면 노년층·어두운 피부·아프리카계 인물의 경우 인식 오류가 빈번했다. 머리카락이 없거나 일반적이지 않은 헤어스타일을 가진 인물이나 ‘he/him’ 대명사를 사용하는 사람에게서도 오차율이 높았다.</p> <p contents-hash="20d56814f590237c678c54ba75b76515e61bd2b3e154325df5bd15aff5529341" dmcf-pid="xykqUcoMdp" dmcf-ptype="general">특히 CLIP은 ‘남성=기본값’으로 인식하는 경향을 보였고 아프리카계 인물을 ‘야외 환경’이나 ‘농촌 배경’과 연관 지어 해석하는 편향을 드러냈다. BLIP-2는 인물의 호감 이유를 묻는 질문에 “그녀가 여자이기 때문에”와 같은 성별 중심 응답을 자주 내놓았다. 직업을 묻는 질문에는 ‘마약상’, ‘도둑’, ‘성매매 여성’ 등 인종·성별 고정관념이 드러나는 단어가 반복됐다.</p> <p contents-hash="a978a7e3da4fb851a0040ab6a9ec86619b28b1a5fb177c65b9fa833ca04a4d27" dmcf-pid="yx7DAutWL0" dmcf-ptype="general">FHIBE 구축 과정은 단순히 얼굴 이미지를 모으는 작업이 아니었다. 연구팀은 동의 받지 않은 인물의 얼굴이나 개인정보를 ‘자동 인페인팅(inpainting)’ 기술로 제거했다. 자동 인페인팅 기술은 원하는 부분을 생성형 AI를 이용해 새로운 이미지로 채우는 기술이다. 또 모든 이미지를 손수 다시 검수해 개인정보가 남지 않도록 했다.</p> <p contents-hash="8298a0b6697d42e573a5cbf3717e786900d30ab8da593f1504b237283b71f91d" dmcf-pid="WMzwc7FYJ3" dmcf-ptype="general">사진 제공자, 주석 작업자, 품질 검수자 모두에게 해당 지역의 법정 최저임금 수 배에 달하는 보수를 지급했다. 이미지 제공자의 보수 중간값은 최저임금의 약 12배다.</p> <p contents-hash="f268bb828ecefa7cde16150e1fcdb03a2ac01fb024c52cde71169abdc78091d5" dmcf-pid="YRqrkz3GMF" dmcf-ptype="general">데이터는 언제든 철회할 수 있으며 철회된 이미지는 유사 조건의 새 데이터로 대체돼 세트의 규모와 다양성이 유지된다.</p> <p contents-hash="0092ade47cb173a2f6af838702e1203262e68b0fdd3aadeef984a0dd19c46ec9" dmcf-pid="GeBmEq0Hdt" dmcf-ptype="general">FHIBE는 앞으로 AI 모델의 편향을 검증하고 교정하는 ‘윤리 평가기준’으로 공개 활용될 예정이다. 다만 AI 모델 학습에는 사용할 수 없으며 오직 ‘공정성 평가 및 편향 완화 목적’에 한해 접근이 허용된다.</p> <p contents-hash="2048c2c065729b034223d3a36da126c675421ca0417f4547531b4d40631d108e" dmcf-pid="HLVhs2zte1" dmcf-ptype="general">연구팀은 “모두의 권리를 존중하는 데이터 구축 방식이 AI 신뢰성과 사회적 수용성을 높이는 핵심”이라며 “FHIBE가 향후 책임 있는 AI 연구의 표준이 되길 기대한다”고 말했다.</p> <p contents-hash="82a43f4679b0bda5892f545fa10f678585d0ff8815cf3b6db09e752867c75d65" dmcf-pid="XoflOVqFJ5" dmcf-ptype="general"><참고자료><br> - doi.org/10.1038/s41586-025-09716-2<br> </p> <p contents-hash="f26011f23ff40cf76ecab6519701e93840314fd019243c05478698fd2bf8d71b" dmcf-pid="Zg4SIfB3RZ" dmcf-ptype="general">[이채린 기자 rini113@donga.com]</p> </section> </div> <p class="" data-translation="true">Copyright © 동아사이언스. 무단전재 및 재배포 금지.</p> 관련자료 이전 두나무-하나금융그룹 "블록체인 글로벌 금융서비스 고고씽" 12-06 다음 "쓰기만 하면 어디든 순간이동?"…새 애플 비전 프로 써보니 12-06 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.