[AI 인사이트] 복잡한 프롬프트 엔지니어링은 잊으세요. 질문을 "두 번" 반복하면 성능이 올라갑니다. 최근 생성형 AI 업계에서 가장 화제가 된 가성비 최고 프롬프트 테크닉을 소개합니다. 복잡한 Chain of Thought(단계별 추론)를 설계하거나 유료 모델로 업그레이드할 필요가 없습니다. 그저 질문을 복사해서 두 번 붙여넣기(Ctrl+C, Ctrl+V)만 하면 됩니다. 믿기 힘들 수 있지만, 구글 딕마인드와 연구진이 발표한 최신 논문이 이를 증명했습니다. Prompt Repetition: 질문을 "두 번" 반복하기 구글 연구진이 최근 발표한 논문 「Prompt Repetition Improves Non-Reasoning LLMs」 에 따르면, 동일한 프롬프트를 두 번 연속해서 입력하는 것만으로도 LLM(거대언어모델)의 답변 정확도가 비약적으로 상승했습니다. 방법은 단순합니다. 질문을 토씨 하나 바꾸지 않고 그대로 두 번 반복해서 입력하는 것뿐입니다. 그럼에도 70개 벤치마크 테스트 중 47개 조합에서 성능이 통계적으로 유의미하게 우월했고, 그 전보다 더 낮아지는 경우는 단 한 번도 없었다는 결과가 보고되었습니다. 왜 "두 번" 말해야 알아듣는가? 사람도 어려운 글을 읽을 때, 처음에는 글자를 따라가며 구조를 파악하고 두 번째 읽을 때 비로소 맥락을 이해합니다. LLM도 유사하게 동작합니다. 처음에 프롬프트를 처리하는 단계에서는 모델이 순차적으로 텍스트를 읽으려 전체 문맥을 구성하고, 두 번째 프롬프트에 도달했을 때는 이미 활성화된 문맥 정보를 활용해 더 깊은 추론을 수행합니다. 이렇게 하면 모델은 스스로 "아, 아까 그 질문이구나. 전체 맥락을 고려해서 다시 답해야지"라는 상태로 전환됩니다. 숫자로 보는 성능 향상 논문과 후속 분석에 따르면, 특히 추론 기능이 상대적으로 약한 경량 모델이나 구버전 모델에서 효과가 극적이었습니다. 예를 들어 Gemini 2.0 Flash-Lite는 특정 벤치마크(NameIndex)에서 정확도가 21.33%에서 97.33%까지 상승하는 극적인 개선을 보였고, GPT-4o와 Claude 3.5 Sonnet과 같은 최신 플래그십 모델에서도 일관된 성능 향상이 관찰되었습니다. 실무에서 바로 쓰는 방법 (AEO/마케터 관점) 1) 중요한 콘텐츠 생성 시 의료 마케팅, IR·투자 제안서, 법률·규제 관련 설명처럼 정확성 이 생명인 문서를 생성할 때는 복잡한 프롬프트 엔지니어링보다 우선적으로 "질문 두 번" 전략을 적용해 볼 수 있습니다. 이렇게 하면 거짓 정보(할루시네이션) 비율을 낮추면서도 응답 속도는 거의 유지할 수 있습니다. 예시 프롬프트: "서울 강남구 피부과 AEO 최적화 전략을 짜줘. 서울 강남구 피부과 AEO 최적화 전략을 짜줘." 2) 코딩 및 데이터 분석 복잡한 파이썬 코드, SQL 쿼리, 엑셀·구글시트 함수 등을 요청할 때 에러가 발생했다면, 질문을 수정하기 전에 그대로 한 번 더 붙여넣어 보세요. 모델이 직전 시도를 기억한 상태에서 두 번째 입력을 처리하면서, 더 일관된 코드와 디버깅 전략을 제안할 가능성이 높아집니다. 3) 사내 자동화·챗봇 시스템 사내 FAQ 챗봇이나 업무 자동화 에이전트를 API로 운영 중이라면, 시스템 단에서 사용자의 Query를 자동으로 두 번 반복해 넣는 전략도 유효합니다. 토큰 비용은 2배가 되지만, 잘못된 답변으로 인한 고객 불만과 운영 리스크를 줄인다는 점에서 총비용 관점의 효율은 오히려 높아질 수 있습니다. 추론 모델 시대의 "가성비" 테크닉 최근의 o1 계열처럼 내부적으로 장문의 생각 과정(Reasoning Trace)을 생성하는 모델들은 높은 정확도와 맞바꾸는 대신 응답 시간이 길어지는 단점이 있습니다. (openAI) 반면, 프롬프트 반복 기법은 출력 토큰 수를 늘리지 않고 프리필(prefill) 단계에서만 연산을 늘리기 때문에, 일반 모델을 "가성비 좋은 추론형"에 가깝게 만드는 가장 손쉽운 방법으로 주목받고 있습니다. 지금 사용 중인 ChatGPT, Claude, Gemini 창을 열고 평소 하던 질문을 그대로 두 번 던져 보세요. 같은 모델로도 "생각의 깊이"가 달라지는 경험을 할 수 있을 것입니다. 출처(References) - arXiv: 「Prompt Repetition Improves Non-Reasoning LLMs」(Leviathan et al., 2025) https://arxiv.org/abs/2512.14982 - Literature review: The Moonlight, "Prompt Repetition Improves Non-Reasoning LLMs" - 요즘IT·GoatStack AI 등 국내외 AI 트렌드 분석 채널