대규모 언어 모델(Large Language Models, 이하 LLM)은 기술을 활용하는 방식을 혁신적으로 변화시키고 있습니다. 하지만 이러한 모델들이 보유한 높은 지능과 복잡성은 새로운 종류의 보안 위협을 도입하는 원인이 되기도 합니다. 특히, "프롬프트 주입(Prompt Injection)"이라는 새로운 보안 이슈가 대두되고 있어, 이에 대한 이해와 대응이 시급한 상황입니다. 이 글에서는 LLM의 훈련 방법과 프롬프트 공학의 기초를 소개하며, 프롬프트 주입이 어떠한 문제를 일으킬 수 있는지에 대해 설명하고자 합니다.LLM은 웹에서 수집한 방대한 데이터를 통해 비지도 학습을 거쳐 다양한 언어적 패턴과 지식을 습득합니다. 이 과정에서 모델은 수십 억 개의 매개 변수를 조정하며 문장에서 다음 단어를 예..