최근 법원 실무 현장에서 인공지능(AI)의 영향력이 빠르게 확산되고 있다. 특히 판결문, 소장, 준비서면 등 각종 법률문서를 작성하는 과정에서 변호사나 당사자분들께서 AI를 활용하는 사례가 늘어나고 있다. AI는 방대한 법령과 판례를 신속히 탐색하고 논리적 구조를 갖춘 초안을 제시함으로써 업무 효율성을 높일 수 있는 유용한 도구다. 그러나 그 이면에는 간과할 수 없는 문제점과 위험도 공존하고 있다.
가장 심각한 문제는 AI가 허위의 법령이나 존재하지 않는 판례를 인용하는 경우다. 일부 소송관계인들이 AI가 생성한 문서를 충분히 검증하지 않은 채 그대로 제출하는 일이 발생하고 있다. 재판부 입장에서는 이른바 ‘환각(hallucination)’ 현상으로 만들어진 가짜 인용을 일일이 확인해야 하기 때문에 소송 진행에 불필요한 시간과 노력이 소모되고 있다. 이는 단순한 실수가 아니라 법적 신뢰의 근간을 흔드는 문제로 이어질 수 있는 상황이다.
또한 AI를 이용해 증거를 조작하거나 위조하는 사례도 나타나고 있는 것 같다. 이미지나 음성 합성 기술을 활용해 실제 존재하는 자료처럼 꾸민 ‘딥페이크 증거’가 대표적인 사례다. AI의 정교함이 높아질수록 인간의 눈으로 그 진위를 가려내기가 어려워지고, 이는 증거능력 판단의 복잡성을 크게 높일 수 있다. 이로 인해 법정에서의 사실인정 과정이 기술적 문제에 의해 왜곡될 우려도 커지고 있다.
소송관계인들은 AI를 활용할 때 AI가 제시한 법령이나 판례의 출처를 반드시 확인해야 한다. 실제 존재하는 법원 판결인지, 사건번호가 정확한지 등을 검증하는 절차가 꼭 필요하다. 이와 함께 AI가 제공하는 법률적 서술이나 요약 결과는 어디까지나 참고자료로만 활용하는 것이 좋다. 마지막으로 개인정보나 사건정보를 AI 시스템에 입력하는 경우에는 보안에 각별히 주의해야 한다. AI 모델이 학습용 데이터로 해당 정보를 저장하거나 재활용할 가능성이 있기 때문이다.
법원에서도 이러한 변화에 대응하기 위한 여러 방안을 모색하고 있다. 대응방안으로는 우선 AI를 활용한 서면 제출 시 생성형 AI의 사용 여부와 범위를 명시하도록 하는 제도적 장치를 검토해 볼 수 있다. 이미 몇몇 법무법인에서는 AI를 사용하였다는 내용을 자문 의견서나 소송 서면에 표시하고 있다고 한다. 이같은 방법을 통해 AI 활용의 투명성과 책임성을 높일 수 있을 것으로 보인다. 특히 허위 인용이나 조작된 증거에 대한 제재 기준을 명확히 하는 방안도 검토해 볼 수 있다. 현행 변호사윤리장전이나 변호사법, 소송법 등에 AI 활용과 관련한 성실의무와 위반 시 제재에 대한 규정 등을 두어 AI 남용을 예방하고 공정한 재판 운영을 도모하는 것이다. 아울러 재판부의 전문성 제고를 위한 노력도 병행되어야 한다. 판사들이 AI 기술의 원리와 한계를 이해해야 제출된 서면이나 증거의 신빙성을 적절히 평가할 수 있기 때문이다.
AI는 인간의 판단을 대신하는 존재가 아니라, 판단을 보조하는 도구에 불과하다. 재판의 본질은 여전히 인간의 이성과 양심에 기반한 ‘공정한 판단’에 있다. AI가 법률 실무의 효율성을 높이는 동시에 정의 실현의 새로운 가능성을 열기 위해서는 그 적절한 활용에 관하여 제도가 뒷받침되어야 한다. 법원 역시 그러한 방향에서 AI의 남용을 방지하고, 신뢰받는 재판을 구현하기 위한 다양한 대응책을 꾸준히 모색해 나갈 것이다.

