AlphaProof, AlphaGeometry, ChatGPT 그리고 신경-기호적 AI의 미래 2024-07
[repost] 2 min read
교수님 발췌: “Since LLMs inevitably hallucinate and are constitutionally incapable of checking their own work, there are really only two possibilities: we abandon them, or we use them as components in larger systems that can reason and plan better”
📌 AlphaProof, AlphaGeometry, ChatGPT 그리고 신경-기호적 AI의 미래
Gary Marcus, 2024.07.29
🔍 LLM의 근본적 한계
- LLMs(대형 언어 모델)는 이해나 추론을 하지 않음.
- 특정 데이터에 최적화된 “자동완성 시스템"에 불과.
- 예제 기반으로 일반화할 수 있으나, 새로운 변형 문제에는 취약.
- 논리적 사고를 요구하는 문제에서 일관적인 성능을 내지 못함.
- 가장 큰 문제:
- 자신이 생성한 답을 검증할 능력이 없음.
- 오류를 인식하고 수정할 메커니즘이 부족함.
🏆 DeepMind의 AlphaProof & AlphaGeometry 2
- **DeepMind(현재 Google DeepMind, GDM)**는 신경-기호적 AI를 적극 활용.
- AlphaProof & AlphaGeometry 2 → 국제 수학 올림피아드(IMO) 은메달 수준 달성.
- AlphaGeometry 2
- 기하학 문제를 풀기 위한 하이브리드 시스템.
- 신경망(직관적 아이디어) + 기호적 엔진(논리적 검증) 결합.
- AlphaProof
- 정리 증명을 위한 시스템.
- 신경망이 생성한 해를 Lean 증명 보조기(symbolic proof assistant)로 검증.
🔮 AI의 미래는 신경-기호적 접근법에 달려 있음
- Geoffrey Hinton & Yann LeCun은 신경-기호적 접근을 반대했지만, DeepMind가 이를 실현.
- AI 발전이 더 이상 단순한 “스케일링”(모델을 키우는 것)로 해결되지 않음.
- 새로운 알고리즘 혁신이 필요하며, 기호적 추론을 포함한 AI가 AGI(일반 인공지능)로 가는 길.
- “신경망만으로 AGI를 달성하려는 것은 곰에게 양자역학을 풀라고 하는 것과 같다.”
🏁 결론
- Generative AI는 결국 실패할 가능성이 크다.
- LLM은 자체 검증이 불가능하여 본질적 한계를 지닌다.
- AI가 진정한 추론 능력을 갖추려면 신경망과 기호적 시스템을 결합해야 한다.
- Google DeepMind의 AlphaProof & AlphaGeometry 2가 그 가능성을 입증했다.
- 미래 AI는 “신경-기호적 AI"가 될 것.
Source: https://garymarcus.substack.com/p/alphaproof-alphageometry-chatgpt
분류:수학과 AI