이렇게 위험기반접근법에 근거한 내부회계관리제도의 운영원리를 이해하게 되면 시스템이나 AI의 도움을 받을 수 있는 부분이 명확해 진다.
AI를 활용하기 위해서는 우선 체계적인 내부회계관리제도 플랫폼이 마련되어야 한다. 이러한 전제조건이 만족된다면, 위험기반접근법의 핵심은 위험식별단계(1단계)인데 AI는 구체적으로 왜곡표시 위험을 고유위험으로 도출하고 기술할 수 있는 방법에 도움을 줄 수 있다. 물론, (3단계)에서 잔여위험을 허용가능위험 이하로 낮추었는지 확인하기 위한 평가 프로그램 구성에도 활용도가 높을 것이다.
또한, AI를 활용한다면 감(感, feeling)에 근거하지 않고 데이터에 근거(measure, don’t guess 원칙)하여 한발짝이라도 더 나은 내부통제(2단계)를 어떻게 구현할 수 있을지에 대한 구체적인 접근이 가능하게 될 것이다.
AI가 내부회계관리제도에 도움을 줄 수 있는 구체적인 방식(예: 데이터 분석, 패턴 인식)을 이해하기 위해서는, 먼저 AI의 핵심 기술과 작동 원리, 그리고 그 한계점을 명확히 알아볼 필요가 있다.
AI는 무엇을 먹고 자랐을까?
AI는 어떻게 답을 찾거나 활용함에 있어 기존의 도구보다 강력하게 되었을까? AI의 핵심은 머신러닝에 있다. 머신러닝이 어떻게 이루어지는지 대략적으로 이해하면 AI의 활용가능 영역과 그 한계점이 명확해진다. 머신러닝은 전통적으로 지도학습, 비지도학습, 강화학습으로 구분된다.
지도학습(supervised learning)은 레이블(정답)이 표시된 데이터를 갖고 학습하는 방법이다. 마치 학생이 정답이 있는 문제집을 풀면서 학습하는 것과 같다. 입력데이터와 그에 해당하는 정답으로 부터 새로운 입력값에 대한 예측력을 키우게 된다. 예를들어 집의 형태, 방의 개수, 위치 정보 등을 종합하여 새로운 주택의 가격을 예측하거나, 과거 감사(조사) 결과와 확인된 부정사례의 데이터로 학습하여 유사한 부정사건을 예상할 수 있다. 하지만 이는 라벨링에 대한 정의와 충분한 데이터가 반드시 필요하므로 학습에 있어 제한적이다.
비지도학습(unsupervised learning)은 레이블(정답)이 없는 데이터를 사용하여 데이터 속에 숨겨진 패턴이나 구조를 찾아내는 방법이다. 정답이 없는 상태에서 데이터 자체의 특성을 파악해 군집화(묶음)하거나 차원축소의 작업을 수행한다. 대표적으로 레이블이 없는 동물사진을 입력하면 네발 달린 것, 나는 것, 네발이 달린 것중 귀가 쫑긋한 것(고양이 등), 귀가 누워있는 것(강아지 등)과 같이 묶어서 구분할 수 있다.
강화학습(reinforcement learning)은 시행착오(trial and error)와 같이 특정행동에 대한 보상(reward)을 최대화하는 방향으로 학습하는 방법이다. 스스로 수많은 시도를 수행하여 보상이 가장 큰 최적의 행동전략을 수립한다. 그네를 가장 빠르게 타는 법을 수많은 시도를 통해 발견한다거나, 바둑에서 최적의 수를 찾기 위한 그 유명한 알파고(AlphaGo)가 학습한 방법으로도 유명하다.
| 머신러닝 방법 |
하지만 이러한 머신러닝의 방법은 매일같이 발전하고 진화하는 AI생태계에서는 꽤나 고전적인 설명이다. 지금 많은 사람들이 사용하는 ChatGPT나 구글의 Gemini, LLaMa, Claude, Notebook LM과 같은 것은 한가지 학습방법이 아니라 지도학습, 비지도학습, 강화학습 같은 머신러닝을 모두 포괄하는 대규모 언어 모델(LLM, Large Language Model)에 근거한다. 이는 방대한 양의 텍스트를 학습하여 인간처럼 자연어를 이해하고 생성할 수 있도록 훈련된 인공지능 모델이다. 예를들어 ‘동해물과”라고 하면 ‘백두산이’가 나올 것을 예상하는 것처럼 수많은 데이터를 통해 예측능력을 인간의 지식 전반으로 확장한 모델이다.
LLM은 강력한 만큼 그 한계점도 뚜렷하다. 그 한계점의 첫번째로는 환각(할루시네이션, hallucination)이라 할 수 있는데, LLM의 답변은 실제 데이터, 즉 참이 아닐 수 있다는 것이다. 이는 어떠한 질문에 대해서라도 학습된 패턴에 따른 그럴듯한 답변을 생성하므로 허위 혹은 과장된 정보를 제공할 수 있다.
두번째는 데이터 편향성이다. LLM은 사전에 학습된 데이터가 편향성(biased)이 있는 경우 편향적인 답변으로 내부회계관리제도의 판단에 영향을 미칠 수도 있다. 예를들어 서양 문화를 학습하여 국내사정에 맞지 않는 답변이라거나, 만약 예를들어 U.S.GAAP만 학습하였다면 IFRS에는 맞지 않는 답변을 줄 수도 있다.
세번째는 시점의 차이가 존재한다. 훈련 당시의 데이터를 바탕으로 작동하게 되므로 최신 부정기법 등의 사항이나 최신의 개정세법과 같은 사항을 반영하지 못할 수도 있다.
마지막으로는 답변이 비일관적이라는 점이다. LLM의 응답은 비정형적으로 질문을 할 때마다 그 답변이 달라지거나 근거가 부족할 수 있다. 이러한 점에서 LLM의 답변은 어떤경우에는 audit trail이 부족하므로 증적으로 활용되기에는 부적합한 측면도 있다.
그러면, AI는 사람에 의한 내부통제를 완전히 대체할 수 있을까?
대답부터 먼저 말하자면 “아니오”이다. 앞서 살펴본 바와 같이 AI는 만능이 아니며 그 한계점이 명확하기 때문에 사람에 의한 내부통제를 완전히 대체할 수 없다.
AI는 반복적이고 규칙에 기반하는 내부통제활동을 자동화하는 등 데이터에 기반하여 이상징후를 포착하거나, 많은 데이터를 처리하거나, 수많은 문구 중 핵심적인 문구를 파악하는 등에서 강력한 힘을 발휘할 수 있다. 반면, 윤리적인 판단이나, 상황에 대한 맥락, 견제와 균형(check and balance)이 필요한 부분은 사람의 개입이 필수적이라고 하겠다.
특히 내부회계관리제도에서는 문서화를 그 필수적 요건으로 하고 있고 그 특성상 evidence 혹은 audit trail을 필요로 하는 경우가 많다. AI는 그 한계점중 환각(할루시네이션, hallucination)이 존재하므로 검증이 가능한 부분으로 내부회계관리제도의 의견형성을 뒷받침할 수 있는 범위 내에서 활용되는 것이 중요하다.
| AI와 사람의 내부통제 협업 |
AI는 만능이 아니며 현재까지는 명확한 한계점이 존재하기 때문에 내부통제의 보조적 도구로써의 역할로 이해하는 것이 핵심이다. 따라서, 사람이 잘 할 수 있는 부분과 AI가 잘 할 수 있는 부분을 구분하여 사람과 함께 작동할 때 가장 효과적이다.
결론: 내부회계관리제도에서 AI의 활용은?
내부회계관리제도에서의 AI의 활용방안은 무궁무진하다. 하지만, AI는 그 발전속도가 너무 빨라서 글을 쓰는 이 순간에도 환경은 변모할 수 있다. 회계정보가 정보로서 목적적합한 질적특성을 갖추기 위해서는 적시성(timeliness)이 중요한 만큼, AI의 활용도 그 타이밍이 너무 늦어버리면 뒷북 정보가 될 수 있기때문에 당장 쓸 수 있는 빠른 정보를 제공하는데 초점을 맞추었다.
우리가 한발짝만이라도 더 나은 내부회계관리제도 위험관리방안에 AI를 활용할 수 있다면 충분한 의미가 있다고 생각한다. 더 낫다는 것은 자동화를 통해 효율성을 증대시키거나, AI를 활용한 내부통제기법의 적용으로 효과성을 높이는 방안이다. 따라서 두가지의 카테고리에 따라 앞으로 연재될 내용에 다음의 내용을 기술할 예정이다.
| (연재 내용) 내부회계관리제도에서 시스템과 AI 활용 |