[인터뷰] AI 교육, 금지보다 ‘책임 있는 활용’… 교육자가 말하는 미래 전략
▷교육 현장에서 본 생성형 AI… 공존을 위한 미래 교육의 해법은?
▷김영운 한국폴리텍대학 빅데이터과 교수 인터뷰
![[인터뷰] AI 교육, 금지보다 ‘책임 있는 활용’… 교육자가 말하는 미래 전략](/upload/c2b4c33d00564ea38622f771055fd6c4.jpg)
[위즈경제] 이정원 기자 =챗GPT 등 생성형 AI 기술의 빠른 발전과 함께 높은 편의성을 통해 세무, 법률, IT 등 전문적인 분야에서의 활용이 빠르게 확산되고 있다.
글로벌 지식정보 콘텐츠 및 기술 제공 기업 톰슨로이터가 지난 5월 공개한 '2025 생성형 AI 전문 서비스 분야 활용 보고서'에 따르면 올해 챗GPT 등 생성형 AI를 사용하는 비율은 지난해 12% 대비 약 두배 증가한 22%로 조사됐다.
또한 산업별 생성형 AI 기술의 도입 역시 빨라지고 있는 것으로 나타났다.
보고서에 따르면 지난해 대비 생성형 AI를 도입한 산업 비율은 법률 분야에서 14%에서 26%로, 세무 회계 및 감사는 8%에서 21% 증가했다. 또한 기업 리스크 관리 분야 역시 18%에서 21%로 증가하면서 전반적인 증가세를 보이는 것으로 분석됐다.
이러한 변화는 비단 전문 분야에 국한되지 않고 일반 사용자들 사이에서도 생성형 AI 활용이 점점 활발해지고 있다.
과학기술정보통신부가 지난 3월 발표한 '2024 인터넷이용실태조사'에서 생성형 인공지능 서비스를 경험해 봤다고 답한 응답자는 2023년 17.6%에서 2024년 33.3%로 약 두배 가까이 증가했다.
이용 분야는 '단순 정보검색'이 81.9%로 가장 높은 비율을 차지했으며, '문서작업 보조(44.4%)', '외국어 번역(40.0%)', '창작 및 취미활동 보조(15.2%)', '코딩 및 프로그램 개발(6.3%)' 순으로 조사됐다.
다만, 생성형 AI가 다양한 분야에서 활용되고 있는 만큼, 그에 따른 부작용 역시 발생하고 있다.
앞서 지난 7월에는 유명 대학 연구자들이 AI에게 높은 평가를 유도하는 '보이지 않는 명령문'을 논문에 몰래 숨겨놓은 사실이 드러나면서 사회적으로 논란이 된 바 있다.
이에 대해 김영운 한국폴리텍대학 빅데이터과 교수는 "해당 사안은 생성형 AI 활용 과정에서 드러난 한계로 볼 수 있어 향후 평가 시스템의 고도화는 불가피하다"면서 "다만, 이에 대한 관련 정책이 마련된다면 기술적으로는 쉽게 해결될 문제로 평가한다"고 밝혔다.
그러면서 "현시점에서 생성형 AI 사용에 따른 부작용보다 장점이 더 많다고 보고 있다"며 "다만, 현재의 생성형 AI 기술은 기존 사람들이 수행해온 기초적인 업무를 처리할 수 있을 만큼의 수준에 이르렀고, 이로 인해 기업들이 신입사원 채용을 줄이면서 일자리 문제가 발생할 수 있다"고 우려를 표했다.
그렇다면 김 교수가 바라보는 생성형 AI의 현주소와 향후 과제는 무엇일까. 아래는 그와의 일문일답이다.
Q1. 최근 논문 작성 과정에서 보이지 않는 명령문을 활용한 사례가 사회적으로 논란이 됐습니다. 교수님께서는 이 사건을 어떻게 보고 계신가요?
현재 많은 학술지들은 AI를 활용한 보조 도구 사용에 대한 지침이 명확하지 않으며, 보이지 않는 명령문을 금지하거나 감지하는 정책도 미흡한 상황이다.
그러나 논문 심사자들이 AI를 리뷰 작성에 보조적 수단으로 사용하는 사례가 늘어나면서, 보이지 않는 명령문이 AI가 생성하는 리뷰 내용에 영향을 줄 수 있고, 이는 곧 심사의 객관성과 공정성을 해칠 우려가 있다.
따라서 논문 제출 시 보이지 않는 명령문을 삽입하는 거은 저자가 투명하게 학문적 내용을 제출한다는 기본 윤리를 어기는 행동인 만큼, 이를 금지하거나 감지할 수 있는 정책적 대안이 필요한 시점이다.
Q2. 실제로 강의나 지도 과정에서 학생들의 AI 의존이 늘어나고 있다고 체감하시나요?
최근 강의와 지도 과정에서 학생들이 AI에 대한 의존이 점차 증가하고 있는 것으로 체감되고 있다.
예를 들어 프로그래밍 수업에서 각 단원이 끝나면 응용을 위한 프로그래밍 과제를 제출하도록 하는데, AI를 활용해 과제를 제출함으로써 실제 시험에서 동일한 문제를 출제해도 해결하지 못하는 케이스들이 발굴되고 있다.
특히 글쓰기나 논리적 사고가 요구되는 프로그래밍 과제에서 AI의 도움을 받는 비율이 높아지고 있으며, 일부 학생은 AI가 제공하는 답안을 그대로 참고하거나 활용하는 사례도 있다.
이러한 현상은 학생들이 학습 시간을 절약하고 효율성을 높이는 장점이 될 수도 있지만, 동시에 스스로의 사고를 통해 문제를 해결하는 능력이 약화될 수 있다는 우려를 낳고 있다.
Q3. 생성형 AI 활용의 대중화는 어떤 문제를 야기할 수 있다고 보십니까?
AI 활용이 연구나 과제 수행에서 가져오는 편리함과 효율성을 분명하다. 그러나 최근 챗GPT와 같은 생성형 AI의 성능이 급격히 향상되면서, 기존 신입사원들이 맡았던 업무를 빠르게 대체하는 양상이 나타나고 있다.
실제로 IT업계에서는 코딩 업무를 생성형 AI로 처리하고 있으며, 이로 인해 과거에는 10명을 채용하던 신입 개발자를 이제는 1~2명만 채용하는 추세를 보이고 있다. 다만, 이러한 변화는 IT업계에 국한된 현상이 아니다.
기업 입장에서는 인력을 채용하는 것보다 생성형 AI를 활용하는 것이 비용 절감과 업무 효율성 측면에서 더욱 유리하다고 판단하고 있으며, 이와 같은 흐름은 앞으로 더욱 뚜렷해질 것으로 보인다.
아울러 생성형 AI를 무분별하거나 책임 없이 사용하는 경우에도 각종 문제를 야기할 수 있다.
실제로 AI가 생성한 글이나 분석 결과를 학생이 충분히 검토하지 않고 그대로 제출하는 경우, 표절이나 저작권 침해 문제로 이어질 수 있고, 이는 연구 윤리 위반으로 간주될 수 있다.
또한 AI에 대한 과도한 의존성은 연구자의 비판적 사고력과 문제 해결 능력을 약화시킬 수 있다. 스스로 분석하고 탐구해야 할 과정을 AI가 대신해버리면, 결과적으로 창의적 사고와 학문적 탐구 정신이 위축될 위험이 있는 것이다.
나아가 AI는 사실 오류나 편향된 정보를 그럴듯하게 제시할 수 있다는 문제도 있다. AI의 불완전하거나 편향되게 출력된 정보를 무비판적으로 활용하면 잘못된 정보가 연구나 과제에 포함될 수 있고, 연구의 신뢰성까지 저해시킬 수 있다.
Q4. 교수님께서는 학생들에게 AI 활용을 어떤 방식으로 지도하고 계신가요?
AI 활용의 가장 중요한 원칙은 책임성이다. AI가 생성한 결과를 그대로 제출하는 것이 아닌 스스로 검증하고 수정하는 과정이 반드시 필요하다.
또한, AI는 사고를 대체하는 수단이 아니라 학습과 연구를 보조하는 도구로 활용되어야 한다. 예를 들어, 아이디어 단계에서 AI를 활용할 수 있지만, 최종적인 결론 도출은 학생의 책임 하에 이뤄져야 하며, 이러한 과정 속에 비판적 사고와 창의성을 유지하고 발전시킬 수 있다.
아울러 윤리적 활용 역시 매우 중요하다. AI 모델의 편향 가능성이나 잘못된 정보 제공 문제를 인지하고, 개인정보나 기밀 데이터를 무분별하게 입력하지 않는 것도 중요하다.
이처럼 올바른 AI 활용을 통해 기술의 편의성을 취하면서도 책임성, 비판적 사고, 윤리적 책임을 함께 지켜나가는 균형 잡힌 접근이 필요하다.
또한, 앞서 언급한 바와 같이, 생성형 AI의 확산으로 인해 이를 적극적으로 도입하는 기업이 점점 늘어나고 있다.
이에 따라 신입 인재에 대한 수요는 점차 감소할 것으로 전망되며, 기존 반복적이고 정형화된 업무는 생성형 AI로 대체되는 흐름이 가속화되면서 갈수록 어려운 취업 환경을 맞이할 가능성이 커지고 있다.
결국 대학을 졸업하더라도 취업에 어려움을 겪는 현실을 피하기 어려운 만큼, 학생들은 생성형 AI가 쉽게 대체할 수 없는 영역에서 경쟁력을 갖춘 이른바 '고급 인재'로 성장할 필요가 있다.
단순히 AI를 활용하는 수준을 넘어, AI가 수행하기 어려운 창의적인 사고, 높은 수준의 기술 개발 역량 등을 갖추는 것이 중요하다.
이러한 역량을 바탕으로 미래 사회에서 주도적인 역할을 수행할 수 있는 인재로 거듭날 수 있도록 지도하고 있다.
Q5. AI가 일상화된 사회에서 미래 인재를 양성하기 위한 교육 방향은?
AI가 이미 사회 전반에 걸쳐 다양한 방식으로 활용되고 있는 현실을 고려했을 때, 단순히 사용을 제한하는 것은 되려 학생들의 역량 향상을 저해할 수 있다.
따라서 AI의 올바른 활용 방법을 체계적으로 가르치는 교육적 접근이 필요하다. AI를 금지하는 대신, 대학에서 학생들이 AI를 책임 있게 활용하는 법을 배울 수 있는 기회를 제공해야 한다.
예를 들어, AI가 생성한 결과를 비판적으로 검토하고 사실 여부를 확인하는 방법, 윤리적·법적 문제를 고려해 사용하는 방법, 창의적 아이디어 발굴이나 학습 심화에 AI를 도구로 활용하는 방법 등을 교육 과정에 포함시켜 학생들의 디지털 리터러시와 미래 핵심 역량을 함께 도모하는 것이다.
이는 학생들이 단순히 결과물을 더는 데 그치지 않고, AI를 활용해 비판적 사고력과 문제 해결 능력을 강화할 수 있다. 이처럼 AI를 통해 새로운 지식과 가치를 창출할 수 있는 책임 있는 활용 능력을 길러주는 교육적 접근이야말로 미래 사회에서 AI와 공존하며 성장할 수 있는 인재를 양성하는 가장 효과적인 길이 될 것이다.
Q6. AI 기술의 급속한 발전 속에서, 인간과 AI의 조화로운 공존을 위한 대학과 교수의 역할은?
AI는 방대한 데이터를 빠르게 분석하고, 학습과 연구 과정을 효율적으로 지원하며, 새로운 아이디어와 창의적 접근을 촉구할 수 있다는 점에서, 앞으로 대학과 교수들이 AI를 완전히 배제하는 것은 현실적이지 않다.
이러한 변화 속에서 대학과 교수의 역할은 단순히 지식을 전달하는 전통적 역할을 넘어, 학생들이 AI를 책임감 있고 효율적으로 활용할 수 있도록 지도하는 방향으로 전환되어야 한다.
특히 교수는 AI 도구의 활용 가능성과 한계를 이해하고, 학생들이 AI의 도움을 받더라도 스스로 비판적 사고와 문제 해결 능력을 발휘할 수 있도록 학습 설계와 과제를 구성해야 한다.
이와 함께 AI를 활용한 연구나 과제수행 과정에서 발생할 수 있는 윤리적, 법적 문제를 명확히 안내하고, 대학 차원에서 AI 활용에 대한 명확한 가이드라인과 교육 프로그램을 마련해야 한다. 이를 통해 교수진과 학생 모두가 AI를 학습과 연구의 보조 수단으로 올바르게 활용할 수 있는 환경을 조성해 나가야 한다.
김영운 한국폴리텍대학 빅데이터과 교수(사진=위즈경제)
댓글 0개
관련 기사
Best 댓글
누가 소액주주와의 연대와 경제정의 실현, 주주보호를 참칭하며 주주들 뒷통수를 친 건지 , 코아스는 대답해야 한다. 누가봐도 말도 안되는 궤변을 늘어놓으며 결국 회사 인수에도 실패, 그러고도 무슨 낯짝으로 이화피해주주보호와 연대를 외치는 건지, 정리매매 때 싼값에 주식사서 한탕해먹으려던 뻔한 수작, 뻔한 민낯 ..
2코아스같은 기업이 한국땅에 존재하는 한 이화연대 주주같은 피해자는 계속 양산될것이다. 만약 이재명정부의 고위직에 계신분이 이화주주연대의 이 피끓는 절규들을 읽으신다면 특별법에의거해서 철저한 조사와 시장교란행위에대해 엄벌을 내려주시길 바랍니다.
3이화그룹주식으로 가슴에 피멍이든 우리주주연대를 우습게 보지 말아라 2년6개월동안 수많은 날들을 이주식 살리고자 밤잠을 설쳐가며 고민했고 실날같은 거래재개를 위해 한국거래소 국회 여의도에서 목이터져라 외쳐댔던 우리의 지난날들을 기억이나 하는가 ᆢ진정 우리들의 눈물의밥을 짐작이나 하겠느냐 같이 주주운동을하다 암으로 죽어가며 언니 거래재개 못보고 갈것같애 하던 동생이 생각난다 많은 주주연대 사람들의 고통과 땀과 인내로 견뎌온 주주연대를 최대치로 대우하고 인정하고 보상해줄 각오하고 코아스는 연대와 협상에 임하라
428만 주주의 피해는 아직 끝나지 않았습니다. 정리매매 속 지분 매입은 주주 보호가 아닌 사익 추구일 뿐입니다. 진정한 책임은 회피하지 말고 행동으로 보여야 합니다. 주주를 위한 투명한 협의와 사과가 선행되어야 합니다.
5것도 좋은 잉시지라고 봅니다 코아스는 진정한 기업이라면 이제라도 주주연대와 협협의에 나서야 합니다 그래야 기업도 살고 주주들은 좋고요
6코아스 당신들이 만들어 놓은 결과물들 너의가 고스란이 거두어갈것이다 이화그룹3사는 이 본질의 책임을 통감하고 이화주주연대와의 진정어린 사과와 협의를 최션을 다하여 임해주길 바란다
7코아스는 이화그룹 싸게 먹을려다 오히려 당하게 생겼으니 소액주주와 소통을 한다.처음부터 소통을 하지 죽게 생겼으니 이제와 무슨말을 합니까. 계획도 없으면서 그냥 싼게 무조건 좋은게 아닙니다.