AI에 친절하게 질문하면 더 좋은 답변 받는 이유 [테크토크] 작성일 05-11 1 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">AI는 감정이 없다…인간 대화 모방할 뿐<br>그러나 벡터화로 인간 감정 감지는 가능<br>인간의 창조성, 숫자로 해석 가능한 걸까<br>석학들 사이 다툼 번진 트랜스포머 논란</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="KNVKHkyjkk"> <div contents-hash="12ef98afedbfcc93fcec40026008e3b9a56deebe3c6bdc919626eff03e889fd7" dmcf-pid="9jf9XEWANc" dmcf-ptype="general"> <p>오픈AI가 개발한 생성형 인공지능(AI) 챗GPT에 질문할 때 친절하고 공손하게 물으면, AI는 더 상세한 답변을 줄 가능성이 있습니다. 다만 이건 어디까지나 철저한 수학적인 반응이지요. AI가 우리에게 고마움을 느껴서 더 좋은 답변을 주는 게 아닙니다. </p> <strong>AI는 우리의 대화 패턴 모방할 뿐</strong> </div> <figure class="figure_frm origin_fig" contents-hash="a37890e4d2da5919f842c25423e861fa3d4c8ae2c07ee5769dd27692e140d99a" dmcf-pid="2A42ZDYckA" dmcf-ptype="figure"> <p class="link_figure"><img alt="아시아경제 DB" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073008769yybf.jpg" data-org-width="550" dmcf-mid="uIJkQ341as" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073008769yybf.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 아시아경제 DB </figcaption> </figure> <p contents-hash="e5660307487fa2a98304c9361ddd455363ca72a33541babc49825b99e1a4a890" dmcf-pid="Vc8V5wGkkj" dmcf-ptype="general">챗GPT에 "왜 친절하게 질문하면 더 상세한 답변을 얻을 수 있는지" 물어봤습니다. 챗GPT는 "훈련 데이터에 기록된 대화 패턴에서 예의 있는 질문에 자세하게 응답하는 경향을 학습했기 때문"이라고 답을 합니다. 즉 "(자신은) 예의 바름이라는 개념을 모르고 기쁨도 느끼지 않지만, 대신 그게 가장 인간적인 반응일 가능성이 높다"는 겁니다. AI는 감정이 있는 게 아니라, 단순히 인간의 전반적인 대화 패턴을 흉내 내고 있다는 얘기죠.</p> <figure class="figure_frm origin_fig" contents-hash="5fea270f9470ff3c5dc132d0430a47fe8cd901033527bc6b7d229f64f9c8d39c" dmcf-pid="fk6f1rHEkN" dmcf-ptype="figure"> <p class="link_figure"><img alt="챗GPT 화면 캡처." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073010448hish.jpg" data-org-width="565" dmcf-mid="7A7nKYzTkm" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073010448hish.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 챗GPT 화면 캡처. </figcaption> </figure> <div contents-hash="d85b4d10c4eb490662e80dd33787ca962b1e00956202ec53b058df7a650b30a0" dmcf-pid="4EP4tmXDja" dmcf-ptype="general"> <p>하지만 여기서 새로운 의문점이 생깁니다. AI는 어떻게 '지금 대화가 좋은 흐름인지'를 파악하느냐는 겁니다. AI에게 감정이 없다면, 당연히 상대 인간의 감정 상태도 파악할 수 없어야 하니까요.</p> <strong>AI, 어떻게 사람 감정 파악하나</strong> </div> <p contents-hash="6067034261ca5a53aaf3ed1a950090ac037971417cfd015b861898537261806a" dmcf-pid="8VXYk6Nfcg" dmcf-ptype="general">그 배경에는 오늘날 AI 챗봇 혁신을 불러일으킨 구글의 발명품 '트랜스포머'가 있습니다. 트랜스포머는 출력된 문장을 잘게 쪼개 탐색해, 대화의 맥락과 숨겨진 의미 등을 파악할 수 있습니다. 챗GPT와 같은 AI가 문장을 이해하고 생성할 수 있게 만든 핵심 기술이지요.</p> <p contents-hash="2dbfc60e91996d2698e9d30c449423b053e9ffb67761acb6b63c451a7f9fcb8d" dmcf-pid="6fZGEPj4ko" dmcf-ptype="general">사실 컴퓨터는 문자를 읽지 못합니다. 문자는 인간의 언어이지 컴퓨터의 언어가 아니거든요. 대신 우리는 문자를 컴퓨터가 읽을 수 있는 데이터로 변형하는데, 이를 '벡터화'라고 합니다.</p> <figure class="figure_frm origin_fig" contents-hash="cda3ade4f708b5107ee434542306cacf408a685a8e965e255622a929bf7708c3" dmcf-pid="P45HDQA8AL" dmcf-ptype="figure"> <p class="link_figure"><img alt="벡터화된 단어들 사이의 거리, 방향을 측정해 맥락을 분석하는 AI의 예제. 챗GPT도 이런 방식으로 사람 말을 이해한다. KD 너겟 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073012012jnxt.jpg" data-org-width="604" dmcf-mid="z27nKYzTNr" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073012012jnxt.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 벡터화된 단어들 사이의 거리, 방향을 측정해 맥락을 분석하는 AI의 예제. 챗GPT도 이런 방식으로 사람 말을 이해한다. KD 너겟 캡처 </figcaption> </figure> <p contents-hash="0668b1cf1eeb0dbb1295b62a47c00a0639399860815ef3d146c17ffaac9581bb" dmcf-pid="Q81Xwxc6an" dmcf-ptype="general">컴퓨터 프로그래밍에서 벡터는 특정한 방향을 가진 선으로 이해할 수 있습니다. 즉, 컴퓨터에 문자는 모두 고유의 방향을 가진 벡터인 셈이지요. 벡터들을 연산하면 각 벡터가 서로 유사한 방향인지(내적 1), 상관없는 방향인지(내적 0) 구할 수 있어요. 숫자가 1에 가까울수록 AI는 "이 문자들은 서로 연관된 거구나"라고 파악하고, 0에 가까울수록 "상관없는 이야기를 하는 거구나"라고 눈치챌 수 있다는 겁니다.</p> <div contents-hash="6d4d7ef2e146ef27c5009366cc2eb59a9e88529b6a4dfdeb641c72e401004ba2" dmcf-pid="x6tZrMkPci" dmcf-ptype="general"> <p>AI가 단순히 한 문장의 맥락을 파악하는 걸 넘어, 인간과 나누는 모든 대화를 잘게 쪼개 벡터로 변환하고 서로 합쳐 방향성을 탐지할 수 있다고 해봅시다. 이 기능을 구현한 게 2017년 구글이 발표한 '셀프 어텐션'이며, 어텐션 기법을 통해 현대적인 트랜스포머가 탄생했습니다. 오늘날 챗GPT를 포함한 모든 챗봇의 골자이지요.</p> <strong>인간의 창조성이 코드로 복제 가능한 것이었다면</strong> </div> <figure class="figure_frm origin_fig" contents-hash="634fc64548d57fdaad09f9cdafa54afe1c7f24522104096d271e7154552d66c8" dmcf-pid="ySoibW7vcJ" dmcf-ptype="figure"> <p class="link_figure"><img alt="챗GPT는 핵심 시어인 '겨울', '강철', '무지개'의 내적이 1이거나 1에 가장 가깝다는 벡터 연산 결과가 나오자, '겨울은 강철로 된 무지개'가 은유법이라고 판단한다. 챗GPT 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073013457pbxy.jpg" data-org-width="743" dmcf-mid="qliezvphcw" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073013457pbxy.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 챗GPT는 핵심 시어인 '겨울', '강철', '무지개'의 내적이 1이거나 1에 가장 가깝다는 벡터 연산 결과가 나오자, '겨울은 강철로 된 무지개'가 은유법이라고 판단한다. 챗GPT 캡처 </figcaption> </figure> <p contents-hash="f9ced95fabfcf015ccf66b2d76db7afd540889214d0d422e547e08c3bd34e737" dmcf-pid="WvgnKYzTgd" dmcf-ptype="general">예제로 챗GPT에 시인 이육사의 시 '절정' 한 구절을 해석해 달라고 요청했습니다. 챗GPT는 각 단어를 벡터화한 뒤 단어들 사이의 유사성을 찾습니다. 그 결과 '겨울', '강철', '무지개' 단어의 내적이 1에 근사하다고 나옵니다. 앞서 설명했듯 내적 1에 가까울수록 서로 연관된 문자로 이해합니다. 이로써 챗GPT는 '겨울'이 '강철로 된 무지개'의 비유라고 판단합니다.</p> <figure class="figure_frm origin_fig" contents-hash="9d2318949c30266360c081f7c0b8bb15504525897a8604f69df0a29290b1f906" dmcf-pid="YTaL9Gqyce" dmcf-ptype="figure"> <p class="link_figure"><img alt="챗GPT 화면 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073014876vbjb.jpg" data-org-width="745" dmcf-mid="Bt5HDQA8cD" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073014876vbjb.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 챗GPT 화면 캡처 </figcaption> </figure> <p contents-hash="5a06880acbadab1b5c28aeb9c1ac6249f6d9d314ff8940ea851bc4482d91354c" dmcf-pid="GyNo2HBWAR" dmcf-ptype="general">AI는 벡터 연산만으로 복잡한 시를 해석할 수 있습니다. 그동안 인간만 할 수 있다고 생각했던 시의 이해, 맥락 파악 같은 기능이 수학으로도 표현 가능했다는 뜻도 되겠지요.</p> <p contents-hash="a0d1e990a0c18a61929ce22c64761f46215c658a9bd8b5d6e16a39d2bbd2898b" dmcf-pid="HWjgVXbYgM" dmcf-ptype="general">챗GPT의 탄생과 발전은 석학들 사이에서도 논란을 불러일으켰습니다. 세계 최고의 언어학자로 평가받으며, 언어는 인간 고유의 특성이라는 '언어생득기제' 이론을 완성한 노엄 촘스키 MIT 교수는 2023년 챗GPT에 대해 "인류 출현 이전의 원시적 인지 체계를 갖고 있다"며 "기계학습은 사이비 과학"이라고 맹렬하게 질타했습니다.</p> <figure class="figure_frm origin_fig" contents-hash="81560f41156443d471e1dfee24e7f2c85da45995701c6f5ab9941c73c24076c7" dmcf-pid="XYAafZKGgx" dmcf-ptype="figure"> <p class="link_figure"><img alt="제프리 힌턴 토론토대 교수(왼쪽)와 노엄 촘스키 MIT 교수. 링크드인, 게티 이미지" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/11/akn/20250511073016348cxha.jpg" data-org-width="745" dmcf-mid="bW5HDQA8kE" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/11/akn/20250511073016348cxha.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 제프리 힌턴 토론토대 교수(왼쪽)와 노엄 촘스키 MIT 교수. 링크드인, 게티 이미지 </figcaption> </figure> <p contents-hash="d825d047be3d3a76ed3a7da70859a84d9b4f6d2591f3d809bbf5d46b9de6e496" dmcf-pid="ZGcN459HkQ" dmcf-ptype="general">그러나 초기 AI 과학의 발전을 주도한 제프리 힌턴 토론토대 교수는 지난해 촘스키 교수를 "언어가 타고난 기질이라는 그의 관점은 미친 주장"이라고 원색적으로 비판하며 "촘스키의 견해와는 달리, AI는 언어가 실제로 무엇을 의미하는지에 대한 종지부를 찍었다"고 주장했습니다.</p> <p contents-hash="7efa3000933ff1f89a0c4dbf27e0be750a591db7a9760b5f1339d48c228062da" dmcf-pid="5Hkj812XcP" dmcf-ptype="general">거대언어모델(LLM)을 둘러싼 인문학, 철학, 컴퓨터 과학, 수학계의 논란은 여전히 현재진행형입니다. 범인공지능(AGI)의 탄생은 아직 멀었을지 몰라도, 트랜스포머라는 존재 자체가 이미 우리의 오랜 믿음을 뒤흔들었기 때문입니다. 창조성이 인간 고유의 것이 아니라, 언제든 분석하고 복제할 수 있는 것일지도 모른다는 가능성입니다.</p> <p contents-hash="17adbeb3c403e89701975dfe9933dd2777beb02388a2a525e58ae5702607ad1b" dmcf-pid="1ZDcPFf5A6" dmcf-ptype="general">한편 챗GPT에 지나치게 친절한 태도를 보이는 것을 경계하는 사람이 있습니다. 샘 올트먼 오픈AI 최고경영자(CEO) 입니다. 그는 최근 X(옛 트위터)를 통해 사람들이 챗GPT에게 "부탁해요" "고맙습니다" 등의 감사 표현을 빈번하게 하는데 대해 "지불해야 할 전기요금이 수천만달러"라며 불만을 표한 바 있습니다. 단순한 감사 인사에도 답변하도록 설계돼 소비전력량의 낭비가 생길 수 있다는 것인데요.</p> <p contents-hash="5eb8d2ebb3e535937b244d8ca2e23aa264129d1956ef450bedb3842a7b559632" dmcf-pid="t5wkQ341A8" dmcf-ptype="general">물론 챗GPT는 고객의 감사 표현에 정중히 답변하겠지만, 사실 이 행위 자체는 AI에 아무 의미도 없을 겁니다. AI 사용으로 인한 막대한 전기 소모량 및 환경 오염을 우려하는 입장이라면, 질문을 친절하게 할 필요는 있어도 질문 뒤 감사 표현은 오히려 불필요한 사치라고 볼 수도 있겠지요.</p> <p contents-hash="14081ea9081a608568f5de7ade515dd0ffa042fbd0365a64f22b37d75d85cc42" dmcf-pid="F1rEx08tc4" dmcf-ptype="general">임주형 기자 skepped@asiae.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 아시아경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 ‘불후의 명곡’ 홍지민 최종우승...치매 母 ‘섬집 아기’에 눈물바다 05-11 다음 수상레저 사고 68% 성수기 발생…동해해경청, 안전관리대책 추진 05-11 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.