SW/인공지능

LLM 할루시네이션을 줄이는 방법

얇은생각 2023. 11. 11. 07:30
반응형

AI 할루시네이션은 결함 있는 훈련 데이터와 과도한 복잡성에서 비롯됩니다. 할루시네이션 을 줄이기 위한 연구 지원 전략을 발견합니다.

LLM 할루시네이션 은 챗봇이나 컴퓨터 비전 시스템과 같은 큰 언어 모델이 실제 패턴이나 객체에 부합하지 않는 무의미하거나 부정확한 결과를 생성하는 현상을 말합니다. 이러한 잘못된 인공지능 출력은 다양한 요인에서 비롯됩니다. 제한되거나 왜곡된 훈련 데이터에 과적합되는 것이 주요 원인입니다. 높은 모델 복잡성도 기여하여 인공지능이 존재하지 않는 상관관계를 인식할 수 있게 합니다.

생성형 AI 시스템을 개발하는 주요 회사들은 AI 할루시네이션 문제를 해결하기 위한 조치를 취하고 있지만, 일부 전문가들은 잘못된 출력을 완전히 제거하는 것이 불가능할 수도 있다고 믿고 있습니다.

구글은 훈련 데이터와 웹 정보에 대한 반응을 얻기 위해 모델들을 인터넷에 연결시켰습니다. OpenAI는 인간의 피드백과 강화 학습을 사용하여 ChatGPT의 산출물을 다듬습니다. 그들은 "과정 감독"을 제안했는데, 이것은 단지 최종 답변이 아닌 정확한 추론 단계에 보상을 주는 모델입니다. 이것은 설명력을 향상시킬 수 있지만, 일부에서는 조작에 대한 효과에 대해서는 의문을 제기합니다.

그럼에도 불구하고, 기업과 사용자는 AI 할루시네이션 으로 인한 잠재적인 피해를 방지하고 제한하기 위한 조치를 취할 수 있습니다. 위험을 최소화하면서 진실성과 유용성을 극대화하기 위한 지속적인 노력이 필요합니다. 유망한 접근법이 있지만, 할루시네이션 을 완화하는 것은 기술이 발전함에 따라 여전히 적극적인 도전 과제로 남아 있을 것입니다.

 

 

 

LLM 할루시네이션을 줄이는 방법

 

 

LLM 할루시네이션 을 줄이기 위한 방법

1. 고품질 교육 데이터 사용

생성 AI 모델은 훈련 데이터를 기반으로 출력을 생성하기 때문에 고품질의 관련 데이터 세트를 사용하는 것이 할루시네이션 을 최소화하는 데 필수적입니다. 다양하고 균형 잡힌 잘 구조된 데이터에 대해 훈련된 모델은 작업을 이해하고 편견 없는 정확한 출력을 생성할 수 있도록 더 잘 갖춰져 있습니다.

양질의 훈련 데이터는 그들이 미묘한 패턴과 상관관계를 학습할 수 있게 해줍니다. 또한 모델들이 부정확한 연관관계를 학습하는 것을 방지합니다.

 

 

2. 의도된 용도를 명확히 하기

인공지능 시스템의 구체적인 목적과 허용되는 용도를 명확하게 정의하는 것은 그것이 할루시네이션 에 빠진 콘텐츠로부터 멀어지도록 하는데 도움을 줍니다. 유용하고 관련 있는 반응에 초점을 맞추기 위해 모델 역할의 책임과 한계를 설정합니다.

 개발자와 사용자가 의도된 애플리케이션의 철자를 말할 때, 인공지능은 자신의 세대가 기대와 일치하는지 여부를 판단하는 벤치마크를 가지고 있습니다. 이는 훈련에서 기초가 부족한 관련 없는 추측으로 구불구불 돌아가는 것을 막습니다. 잘 정의된 목표는 AI가 자신의 대응을 스스로 평가할 수 있는 맥락을 제공합니다.

 생성 모델이 목적과 단절된 할루시네이션 내용을 떠올리지 않고 실제 현실에 고정될 수 있도록 원하는 기능과 용도를 명확히 설명합니다. 진실한 가치를 지향하는 "이유"를 정의합니다.

 

 

3. 데이터 템플릿을 활용하여 AI 출력 안내

구조화된 데이터 템플릿을 사용하여 인공지능 할루시네이션을 제한합니다. 템플릿은 모델에 데이터를 공급하기 위한 일관된 형식을 제공합니다. 이는 원하는 출력 지침과의 정렬을 촉진합니다. 데이터 조직 및 내용을 안내하는 미리 정의된 템플릿을 사용하여 모델은 예상 패턴에 맞는 출력을 생성하는 법을 배웁니다. 포맷은 공상적인 내용을 제작하기보다는 구조화된 현실에 묶여 모델 추론을 형성합니다.

깔끔하고 균일한 데이터 템플릿에 의존하면 모델의 해석에 불확실성이 발생할 여지가 줄어듭니다. 따라서 예측할 수 없는 구불구불한 공간이 제한됩니다.

 

 

4. 응답 제한

통제되지 않는 추측을 줄이기 위해 잠재적인 모델 출력에 대한 제약과 한계를 설정합니다. 명확한 확률적 임계값을 정의하고 필터링 도구를 사용하여 가능한 응답을 바인딩하고 생성을 기반으로 유지합니다. 일관성과 정확성을 촉진합니다.

 

 

5. 지속적으로 시스템 테스트 및 미세 조정

배치 전 철저한 테스트와 지속적인 모니터링은 시간이 지남에 따라 성능을 개선합니다. 출력을 평가하는 것은 조정해야 할 영역을 식별하는 반면, 새로운 데이터는 모델을 재교육하고 지식을 업데이트하는 데 사용될 수 있습니다. 이러한 지속적인 개선은 구식이거나 왜곡된 추론에 대응합니다.

 

 

6. 인간의 감시에 의존하기

중요한 안전장치를 제공하기 위해 인간의 감시를 포함합니다. 인간 전문가들이 출력을 검토할 때, 그들은 기계가 부족한 상황 판단으로 할루시네이션에 빠진 모든 내용을 포착하고 수정할 수 있습니다. 인공지능 능력과 인간의 지혜를 결합하는 것은 두 세계의 최고를 제공합니다.

 

 

7. 연쇄적 사고 촉진

대형 언어 모델(LLM)은 셰익스피어 산문을 모방하는 것과 같은 생성 작업에 탁월함에도 불구하고 수학과 같은 다단계 추론에 알려진 약점을 가지고 있습니다. 최근의 연구는 모델이 문제를 순차적인 단계로 분해하는 몇 가지 예를 제시하여 논리적인 사고 사슬을 만들 때 추론 작업의 성능이 향상된다는 것을 보여줍니다.

단순히 모델이 "단계적으로 생각하도록" 유도하는 것만으로도 수공 예제 없이도 유사한 결과를 얻을 수 있습니다. 자유 형식 텍스트를 만드는 대신 LLM이 추론 과정을 차례로 체계적으로 진행하도록 LLM을 움직이는 것만으로도 구조화된 분석이 필요한 작업에 더 잘 집중할 수 있습니다. 이는 신속한 엔지니어링이 LLM이 문제를 해결하는 논리적 방식을 의미 있게 향상시켜 언어 생성의 유창성을 보완할 수 있음을 보여줍니다. 질서 있는 사고에 대한 작은 힌트는 아름답지만 목적이 없는 횡설수설하는 그들의 성향을 상쇄하는 데 도움이 됩니다.

 

 

8. 작업 분해 및 에이전트

최근의 연구는 여러 단계의 추론이 필요한 복잡한 프롬프트에서 성능을 향상시키기 위해 여러 AI "에이전트"를 사용하는 것을 탐구합니다. 이 접근 방식은 초기 라우터 에이전트를 사용하여 프롬프트를 특정 하위 작업으로 분해합니다. 각 하위 작업은 LLM(Large Language Model)인 전용 전문가 에이전트에 의해 처리됩니다.

라우터 에이전트는 전체 프롬프트를 사용 가능한 전문 에이전트의 능력에 맞게 정렬된 논리적 세그먼트로 분해합니다. 이 에이전트는 전문 기술을 최대한 활용하기 위해 받은 프롬프트 조각을 재구성할 수 있습니다. 각각 특정 유형의 추론에 초점을 맞춘 여러 LLM을 함께 연결함으로써 집합 시스템은 개별 구성 요소를 넘어서는 문제를 해결할 수 있습니다.

예를 들어, 공인에 대한 정보를 묻는 질문은 요약 에이전트가 답변으로 압축하기 위해 관련 데이터를 검색하는 검색 에이전트로 라우팅될 수 있습니다. 회의 일정에 대한 질문은 일정 및 날씨 에이전트가 요약 에이전트에게 필요한 세부 정보를 제공할 수 있습니다.

이 접근법은 다양한 LLM의 강점을 조정하여 단계별 추론을 향상시키는 것을 목표로 합니다. 일반론자 모델이 아닌 전문 에이전트는 자신에게 가장 적합한 하위 작업을 처리합니다. 라우터 에이전트는 모듈식 오케스트레이션을 통해 복잡한 프롬프트를 구조화된 방식으로 처리할 수 있습니다.

 

 

정리

LLM에서는 일부 조작이 불가피할 수 있기 때문에 할루시네이션을 완화하려면 일관된 노력이 필요합니다. 고품질 훈련 데이터, 명확한 사용 사례, 템플릿, 엄격한 테스트 및 인간 감독이 진실성을 극대화하는 데 도움이 됩니다. 위험이 지속되는 동안 책임 있는 개발과 협업은 인공지능의 이점을 육성할 수 있습니다. 생성 모델이 윤리적 기반으로 신중하게 운영되면 사회적 이익을 위해 엄청난 잠재력이 사용될 수 있습니다. 도전이 있지만 우리가 이러한 강력한 도구를 신중하게 안내한다면 가능성도 있습니다.

반응형