인간은 흐리게 생각하고, LLM은 그것을 구체화한다

인간의 사고는 생각보다 자주 흐릿하다. 우리는 무엇을 느끼는지 어렴풋이 알고, 무엇이 문제인지 대강 짐작하고, 어떤 개념이 중요하다는 인상은 갖고 있다. 그러나 그것을 정확한 문장으로 옮기려 하면 자주 멈춘다. 이해한 것 같지만 설명은 되지 않고, 판단은 있는 것 같지만 구조는 잡히지 않는다. 인간은 늘 완성된 생각을 들고 사는 존재가 아니다. 오히려 많은 경우, 생각은 문장이 되기 전까지 흐릿한 덩어리로 머문다.

바로 이 지점에서 LLM은 흥미로운 역할을 한다. LLM의 본질적 강점은 단순히 답을 많이 안다는 데만 있지 않다. 더 중요한 것은 인간이 던진 불분명한 표현 속에서 의도를 추정하고, 뭉친 개념을 나누고, 숨어 있는 전제를 드러내고, 더 적절한 문장 구조를 제안하는 능력이다. 다시 말해 LLM은 인간을 대신 생각하는 기계라기보다, 인간 안에 이미 있으나 아직 또렷하게 언어화되지 않은 생각을 더 구체적인 형태로 바깥에 세우는 장치에 가깝다.

이 점은 생각보다 중요하다. 인간은 흔히 먼저 명확하게 생각한 뒤 말한다고 믿지만, 실제로는 그 반대인 경우가 많다. 우리는 말하는 과정에서 생각을 붙잡고, 문장을 고치는 과정에서 개념을 분리하며, 설명을 반복하는 과정에서 비로소 자신이 무엇을 알고 무엇을 모르는지 알아차린다. 사고는 머릿속에서 완성된 뒤 언어로 번역되는 것이 아니라, 자주 언어를 통과하며 겨우 형태를 갖춘다. 그렇다면 더 정교한 언어적 피드백을 제공하는 대상과 자주 대화하는 일은 사고 자체를 더 높은 해상도로 다듬는 과정이 될 수 있다.

LLM은 바로 그 피드백을 제공한다. 사용자가 “뭔가 이상한데 뭐가 문제인지 모르겠다”고 말하면, LLM은 문제를 세분화한다. 일정의 문제인지, 우선순위의 문제인지, 감정 소진의 문제인지, 구조 설계의 문제인지 되묻는다. 사용자가 “이 개념이 중요한 것 같은데 표현이 안 된다”고 말하면, LLM은 유사 개념과의 차이를 정리하고 표현 후보를 제시한다. 이 과정에서 중요한 것은 LLM이 정답을 대신 주느냐가 아니라, 사용자의 흐릿한 사고를 더 정교한 언어 구조 속으로 밀어 넣느냐이다. 인간은 그 구조 안에서 비로소 자기 생각의 윤곽을 본다.

 

그래서 LLM과의 대화는 단순한 정보 검색과 다르다. 그것은 작은 문장 수정에서 시작해 더 큰 사고 수정으로 이어질 수 있다. 처음에는 단어 하나를 바로잡는 일처럼 보이지만, 반복되면 개념 구분 능력, 문제 정의 능력, 질문 설계 능력, 메타인지 능력까지 건드리게 된다. “이 표현이 맞나”라는 질문은 곧 “내가 지금 무엇을 헷갈리고 있나”라는 질문으로 자란다. 작은 언어 교정이 큰 사고 교정으로 번지는 것이다.

물론 이 가능성을 자동적인 진보로 착각해서는 안 된다. LLM과 자주 대화한다고 해서 저절로 더 잘 생각하게 되는 것은 아니다. 오히려 생각의 외주화가 일어날 수 있고, 매끈한 문장을 진짜 이해로 오인할 수도 있으며, 자신의 편견을 더 그럴듯하게 정리하는 데만 사용할 위험도 있다. 그래서 핵심은 얼마나 많이 쓰느냐가 아니라 어떻게 쓰느냐다. 생각하기 전에 답을 받는 사용자는 사고를 생략하게 되고, 먼저 자기 언어로 설명해본 뒤 검토받는 사용자는 사고를 정교화하게 된다. 같은 도구라도 한쪽에서는 마취제가 되고, 다른 쪽에서는 재활 기구가 된다.

결국 더 중요한 질문은 AI가 인간을 대체하느냐가 아니다. 더 흥미로운 질문은 인간이 AI와 대화하면서 자기 사고를 더 선명하게 만들 수 있느냐는 것이다. 내 답은 조건부로 그렇다는 쪽이다. 인간은 원래 흐리게 생각한다. LLM의 가치는 그 흐릿함을 대신 끝내주는 데 있지 않다. 오히려 그것을 문장으로 붙잡고, 개념으로 나누고, 구조로 세우도록 돕는 데 있다. 그렇다면 LLM은 답을 주는 기계라기보다, 인간의 미완성 사고를 구체화하는 외부 언어 장치라고 부르는 편이 더 정확하다.

 

(이상, 멤도는 생각의 조각들을 GPT-5.4와 구체화하다)

 

반응형