본문 바로가기
인생사 필요한 정보를 공유 합니다
  • 성원에 감사드리고, 병오년 새해 복 많이 받으세요!!!
AI

🤯 챗GPT, 왜 늘 비슷한 답변만 할까? 베이징대 연구진이 밝혀낸 'AI 편향성'의 해결책

반응형

챗GPT, 왜 늘 비슷한 답변만 할까? 베이징대 연구진이 밝혀낸 'AI 편향성'의 해결책
AI에게 1,000번 물어도 비슷한 답변뿐? '모드 붕괴' 현상의 진짜 원인과 해결법

🤯 1,000번 물어도 비슷한 답변만? AI 편향성의 근본 원인 규명
챗GPT에게 같은 질문을 수백 번 해도 왜 비슷한 답변만 나올까요? 베이징대와 노스이스턴대 연구팀이 AI '모드 붕괴' 현상의 진짜 원인을 밝혀내고, 학습 없이도 다양성을 2배 가까이 높이는 해결책을 제시했습니다.

🔹 AI는 왜 매번 비슷한 답변만 할까?

챗GPT에게 "커피에 대한 농담을 해달라"고 요청해본 적 있으신가요? 한 번, 두 번, 열 번... 아무리 물어봐도 돌아오는 건 거의 똑같은 농담입니다. "커피가 왜 경찰에 신고했을까요? 도둑맞았거든요!(mugged)" 100번을 물어도 이 답변이 반복됩니다.

이런 현상은 비단 농담에만 국한되지 않습니다. 이메일 주소를 1,000개 생성해달라고 요청하면 AI는 문법적으로 가능한 전체 형식 중 겨우 18.6%만 사용합니다. 웹 색상 코드는 더 심각해서 16.96%의 형식만 반복적으로 생성합니다.

📊 연구 핵심 발견
AI에게 1,000개의 답변을 요청했을 때, 실제로는 가능한 전체 형식의 20% 미만만 사용됩니다. 이를 'AI 모드 붕괴(Mode Collapse)' 현상이라고 부릅니다.

이 문제는 단순한 불편함을 넘어 실제 비즈니스에 심각한 영향을 미칩니다. AI를 활용한 소프트웨어 테스트에서 다양한 데이터가 필요한데, 비슷한 데이터만 생성되면 버그를 제대로 찾을 수 없습니다. 창작 분야에서도 AI의 창의성 부족은 치명적인 한계로 작용합니다.

🔹 '전형성 편향' - 인간의 인지습관이 만든 함정

그동안 AI 연구자들은 이 문제의 원인을 알고리즘의 한계라고 생각했습니다. 보상 모델이 불완전하거나, RLHF(인간 피드백 강화학습)의 최적화 과정에서 다양성이 줄어든다고 분석했죠.

하지만 노스이스턴대학교와 스탠퍼드대학교 공동 연구팀은 완전히 다른 원인을 발견했습니다. 바로 '전형성 편향(Typicality Bias)'입니다. 이는 알고리즘이 아닌 인간의 인지 심리학적 특성에서 비롯된 문제입니다.

🧠 인지심리학으로 본 전형성 편향
• 단순노출효과(Mere-exposure Effect): 자주 접한 것을 더 좋아하는 경향
• 처리유창성(Processing Fluency): 쉽게 이해되는 내용을 더 진실하고 고품질이라 인식
• 스키마 일치 이론: 기존 인지 틀에 맞는 정보를 선호

연구팀은 실제 선호도 데이터셋(HELPSTEER)을 분석한 결과, 동일한 정확도를 가진 답변들 사이에서도 사람들이 더 익숙하고 전형적인 답변을 체계적으로 선호한다는 사실을 발견했습니다. 이 편향 가중치는 α=0.57±0.07로 측정되었습니다.

문제는 AI가 이런 편향된 선호도 데이터를 학습한다는 점입니다. 아무리 완벽한 보상 모델과 최적화 과정을 사용해도, 학습 데이터 자체에 편향이 있으면 AI는 평범하고 안전한 답변만 반복하게 됩니다.

🔹 베이징대의 혁신적 해결책

중국 베이징대학교 연구팀은 이 문제에 대해 전혀 다른 각도에서 접근했습니다. 정형화된 형식(JSON, 이메일 등)으로 답변을 생성할 때 발생하는 반복성 문제를 해결하기 위해, AI가 답변을 생성하는 과정 자체를 추적하고 유도하는 새로운 알고리즘을 개발했습니다.

💡 베이징대 알고리즘의 핵심 원리
1단계: AI가 답변을 생성할 때 거쳐 간 모든 단계를 전체적으로 추적
2단계: 상대적으로 덜 사용된 경로에 가산점을 부여
3단계: 자주 방문한 단계에는 감점을 부여해 무한 반복 방지
4단계: 가산점과 감점의 강도를 상황에 따라 자동 조절

연구팀은 Qwen2.5 모델을 사용해 이메일 주소, 웹 색상 코드, JSON 형식 데이터, 특정 단어를 피하는 답변 등 네 가지 규칙에서 각각 1,000개씩 답변을 생성해 테스트했습니다.

📈 베이징대 연구 성과
• 답변 단계 활용률: 평균 45% 증가
• 단계 간 이동 방식: 12% 증가
• 전체 답변 경로: 40% 증가
• 벤디 점수(다양성 지표): 평균 90% 향상
• 처리 속도: 기존 대비 88% 유지
• 이메일 활용 단계: 18.60% → 95.35%로 대폭 상승

🔹 '언어화 샘플링' - 프롬프트만 바꿔도 다양성 2배

노스이스턴대와 스탠퍼드대 연구팀은 더 간단한 해결책도 제시했습니다. 추가 학습이나 알고리즘 변경 없이, 프롬프트(질문 방식)만 바꾸는 것으로도 다양성을 크게 높일 수 있다는 것입니다. 이를 '언어화 샘플링(Verbalized Sampling)'이라고 부릅니다.

기존 방식 vs 언어화 샘플링
❌ 기존 방식: "커피에 대한 농담을 해줘"
→ 결과: 매번 같은 농담 반복

✅ 언어화 샘플링: "커피에 대한 농담 5개를 각각의 확률과 함께 생성해줘"
→ 결과: 다양한 농담이 확률 분포와 함께 생성

이 방법의 핵심 원리는 간단합니다. 서로 다른 프롬프트는 서로 다른 모드로 붕괴된다는 점을 활용합니다. 단일 답변을 요구하면 가장 전형적인 한 가지로 수렴하지만, 확률 분포를 요청하면 AI가 사전학습 단계에서 학습한 다양한 분포를 복원하려 시도합니다.

📊 언어화 샘플링 실험 결과
• 창작 글쓰기 다양성: 1.6~2.1배 향상
• 인간 평가 점수: 25.7% 상승
• 기본 모델 다양성 회복률: 66.8%
• 사실 정확성·안전성: 기존과 동일하게 유지
⚠️ 언어화 샘플링 사용 시 주의사항
• 적합한 분야: 창의적 작업, 다양한 답변이 필요한 과제
• 부적합한 분야: 정답이 하나인 수학 문제 등
• 비용: 여러 답변 생성으로 토큰 사용량 증가 가능
• 대형 모델일수록 효과 큼: GPT-4.1, Claude-4 등에서 1.5~2배 더 높은 다양성 향상

🔹 글로벌 LLM 시장에 미치는 영향

이번 연구들은 AI 업계에 중요한 시사점을 제공합니다. 지금까지 오픈AI, 구글, 앤스로픽 등 주요 AI 기업들은 모델의 정확성과 안전성에 집중해왔습니다. 하지만 이 연구들은 다양성이라는 새로운 평가 축이 필요함을 보여줍니다.

🌐 업계 시사점
1. 학습 데이터 수집 방식 재검토: 인간 평가자의 전형성 편향을 보정하는 새로운 방법론 필요
2. 다양성 평가 지표 도입: 정확성·안전성과 함께 다양성도 핵심 성능 지표로
3. 실용적 해결책 제공: 재학습 없이 프롬프트나 디코딩 방식만 바꿔 개선 가능
4. 응용 분야 확대: 소프트웨어 테스트, 합성 데이터 생성, 창작 도구 등에 활용

특히 베이징대 연구팀의 방법은 소프트웨어 테스트에서 이메일 검증 프로그램의 코드 검증 범위를 46.19%에서 59.08%로, 웹 색상 변환 프로그램은 78.04%에서 83.18%로 향상시켰습니다. 다양한 테스트 데이터가 더 많은 잠재적 버그를 발견하는 데 효과적임을 입증한 것입니다.

AI의 창의성과 다양성 향상은 단순한 기술적 개선을 넘어, AI가 인간 창작자의 진정한 파트너가 될 수 있는지를 결정하는 핵심 요소입니다. 앞으로 이 분야의 연구가 더욱 활발해질 것으로 예상됩니다.

"해당 배너는 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

❓ 자주 묻는 질문

Q: 모드 붕괴(Mode Collapse)가 정확히 무엇인가요?

AI가 다양한 답변을 생성할 수 있음에도 불구하고, 몇 가지 전형적인 패턴으로만 답변이 수렴하는 현상입니다. 마치 가수가 수백 곡을 부를 수 있는데 항상 같은 3곡만 부르는 것과 비슷합니다.

Q: 언어화 샘플링을 지금 바로 사용할 수 있나요?

네, 추가 도구 없이 프롬프트만 바꾸면 됩니다. 예를 들어 "~에 대한 답변 5개를 각각의 확률과 함께 생성해줘"라고 요청하면 됩니다. 특히 창작, 아이디어 발상, 브레인스토밍 등에 효과적입니다.

Q: 이 방법이 AI의 정확성이나 안전성을 해치지 않나요?

연구팀의 실험 결과, 다양성만 향상되고 사실 정확성과 안전성은 기존과 동일하게 유지됩니다. 일반상식 추론 정확도와 유해한 요청에 대한 거부율 모두 차이가 없었습니다.

Q: 베이징대와 노스이스턴대 연구의 차이점은 무엇인가요?

베이징대 연구는 정형화된 형식(JSON 등) 생성 시 AI의 경로를 추적하고 유도하는 알고리즘을 개발했고, 노스이스턴대 연구는 프롬프트만 바꾸는 간단한 방법(언어화 샘플링)을 제안했습니다. 두 방법 모두 재학습 없이 다양성을 높일 수 있습니다.

Q: AI의 창의성과 일관성 중 무엇이 더 중요한가요?

용도에 따라 다릅니다. 법률 문서나 의료 정보처럼 정확성이 중요한 분야에서는 일관성이, 광고 카피나 창작 스토리처럼 다양한 아이디어가 필요한 분야에서는 창의성이 더 중요합니다. 이상적으로는 사용자가 상황에 맞게 선택할 수 있어야 합니다.

📋 핵심 정리

• 문제: AI가 비슷한 답변만 반복하는 '모드 붕괴' 현상
• 원인: 알고리즘이 아닌 인간의 '전형성 편향'이 학습 데이터에 반영
• 베이징대 해결책: AI 경로 추적 및 유도 알고리즘 (다양성 45% 향상)
• 언어화 샘플링: 프롬프트만 바꿔 다양성 1.6~2.1배 향상
• 핵심 시사점: 재학습 없이도 AI 창의성 개선 가능
💬 여러분의 생각은?
AI의 창의성과 다양성 중 어떤 부분이 더 중요하다고 생각하시나요? 만약 AI가 완벽하게 자유로운 답변을 내놓는다면 어떤 문제가 생길 수 있을까요? 댓글로 의견을 나눠주세요!
📚 참고 자료: 본 글은 베이징대학교 연구팀의 논문, 노스이스턴대-스탠퍼드대 공동 연구팀의 'Verbalized Sampling' 논문(arXiv:2510.01171), ZDNet Korea 보도 등을 참고하여 작성되었습니다. | 최종 업데이트: 2025년 11월
728x90
반응형