[디지털데일리 2025.11.04]
이건한 기자
[인터뷰] AI는 인간 주권을 공유하는 대상... 스마트폰 앱 다루듯 봐서는 안 돼
[디지털데일리 이건한 기자] 너도나도 AI 학습에 열심인 시대다. 다만 그 열풍에 가려 잘 드러나지 않는 문제는 우리가 AI를 단순한 스킬(Skill, 기능)처럼 오해하는 경향이다. 사실 오늘날 AI는 기존의 컴퓨터·스마트폰과는 본질적으로 다른 기술이다. 단순히 사용자의 지시를 이행하는 수준을 넘어 인간처럼 사고하고 추론한다. 또한 그 결과물은 사용자의 의사결정에 직접적인 영향력을 미치기도 한다. 한마디로 오늘날 AI는 일부나마 인간의 '주권'을 공유하는 대상이다. 이런 기술을 과연 우리의 의지대로 쉽게 통제할 수 있는 컴퓨터나 스마트폰 앱 다루듯 사용해도 될까?
이런 질문은 결국 단순한 AI 스킬 교육을 넘어 사용자가 AI의 결과물을 직접 판단하고 통제할 수 있는 'AI 리터러시(Literacy)' 교육이 더 중요하다는 목소리로 이어진다. 그렇다면 AI 스킬과 리터러시 교육의 차이는 어떻게 구분해야 할까? AI 교육 전문기업 에이블런의 박진아 대표와 이야기를 나눴다.

박진아 에이블런 대표
◆ 리터러시? "AI가 더 나은가 판단하는 힘"
박 대표는 스킬과 리터러시는 명확히 다른 개념이라고 선을 그었다. 먼저 AI 스킬은 사용자의 관심과 활용 능력에 따라 3단계로 나뉜다는 설명이다. 그 중 '초급'은 AI를 거의 안 써봤거나 관심도가 낮은 단계다. '중급'은 맛집 찾기 등 일상에는 활용하지만 업무 생산성 향상에 활용하는 수준에는 도달하지 못한 단계다. 숙련자에 해당하는 '고급'은 사용자가 AI로 기존에 할 수 없었던 복잡한 업무까지 해결해내는 단계다. 한마디로 철저한 '기능' 그 자체인 셈이다.
반면 'AI 리터러시'는 이 모든 기능적 단계에 공통적으로 필요한 상위 역량이다. 박 대표는 "AI의 제안이 나에게 더 나은 것인지 스스로 판단할 수 있는 능력"으로 AI 리터러시를 정의했다. 또한 이를 위한 AI 리터러시 역량을 다시 '이해', '활용', '문제해결', '비판적 평가' 등 4개 요소로 세분화했다.
그 중 '이해'는 AI의 기본 개념에 대한 지식 수준이다. '활용'은 챗GPT·제미나이 등 사용자가 스스로 목적에 맞는 AI 도구를 선택하고 필요한 프롬프트를 설계하는 수준이다. 다음으로 '문제 해결'은 AI가 제공한 정보 가운데 문제 해결에 필요한 최적의 답을 판단할 때 필요한 기준을 세우는 역량이다. 이어 박 대표가 가장 중요하다고 지목한 '비판적 평가'는 AI 출력물의 신뢰도를 사용자가 직접 평가하고 신뢰도를 검증할 수 있는 능력이다.
박 대표는 "일례로 AI가 'A 식당의 평점은 4.5점, B 식당 4.3점'이라고 답했을 때 '0.2점 차이가 신뢰할 수준인가?', '데이터의 출처는 어디지?', '식당이 지금은 없어진 게 아닐까?'처럼 의심하고 사실 여부를 확인해보는 과정이 비판적 평가"라고 설명했다. 이와 함께 "AI가 결과물을 출력하는 과정은 일반적으로 확인이 불가능한 블랙박스와 같다"며 "따라서 AI를 맹신하는 건 금물이다. 그보다 AI가 내놓은 결과물의 오류나 함정, 편향성을 감지하는 역량까지 갖춰야 진정한 AI 리터러시의 완성으로 볼 수 있다"고 부연했다.

◆ 사회적 낭비·불신 초래하는 'AI 리터러시 부재'
AI 리터러시의 부재는 개인의 피해나 손해만으로 끝나지 않는다. 사회적 낭비로 이어질 수 있다는 점이 더 큰 문제다. 예를 들어 최근 법조계에서는 변호사들이 AI로 검색한 그럴듯한 판례를 검증 없이 법정에 제출했다가 적발되는 일이 심각한 문제로 대두되고 있다. 이는 법원의 오판으로 인한 피해자 발생 또는 판례 검증에 필요한 행정력 낭비로 이어질 수 있는 중대한 이슈다. 만약 이와 비슷한 일이 반복된다면 AI 활용에 대한 사회적 인식 또한 부정적으로 변할 수밖에 없다.
낮은 AI 리터러시 수준은 기업의 AI 전환(AX)에도 치명적이다. 박 대표는 "많은 기업이 AX를 선언했지만 유효한 성과를 거둔 곳은 20% 미만"이라며 "조직의 AX 성패는 조직원들의 리터러시 수준에도 큰 영향을 받는다. 이를 모르고 AI 스킬 교육에만 집중한 기업은 AI 도입에 계속 실패하고 결국 그 동력마저 상실하고 만다"고 지적했다.
그렇다면 이런 AI 리터러시 부재가 장기화되면 우리 사회에 어떤 일이 벌어질까? 박 대표는 스킬 중심의 AI 그룹과 리터러시 중심의 AI 그룹 간 격차가 사회 문제로 비화할 가능성을 내다본다. 특히 그와 관련된 큰 위협으로 '편향의 제도화'와 '사회적 양극화'를 꼽았다. 이 중 편향의 제도화는 AI의 잘못된 판단이 비판 없이 수용되다가 하나의 사회 시스템으로 굳어지는 현상이다. 박 대표는 "예컨대 기업 인재 채용에 사용되는 AI가 어떤 편향된 데이터를 학습했다면 어떨까. 만약 특정 설별이나 나이대를 우대한다면? 그 편향은 자칫 그 회사의 잘못된 채용 정책으로 고착화될 수 있다"고 경고했다.
◆ 가장 시급한 교육 대상은 '조직 리더와 정책 입안자'
결국 이런 관점에서 AI 리터러시 교육은 선택이 아닌 필수라는 결론이 나온다. 최소한 AI가 어떻게 작동하는지, 어떤 실수를 할 수 있는지조차 모르고 AI에게 중요한 일을 대신하게 할 수는 없는 일이기 때문이다. 따라서 AI 리터러시는 교육은 가급적 이 시대의 모든 사람을 대상으로 이뤄지면 좋다. 만약 전국민 동시 교육에 필요한 자원이 부족하다면 우선순위라도 정해야 한다.
이에 발맞춰 AI 리터러시 역량을 가장 먼저 강화해야 할 최우선 대상은 누구일까? 박 대표는 이 질문에 "이견의 여지없이 정책 입안자와 기업 리더들"이라고 단언했다. "특히 기업의 AI 혁신은 부하 직원이 아닌 리더가 먼저 AI의 필요성을 이해하고 강력한 톱다운(Top-down) 정책을 펼쳐야 조직 전체의 변화 또한 빨라진다"고 강조했다. 장기적으로는 학생 교육도 우선순위다. 박 대표는 "지식을 스펀지처럼 흡수하는 학생들은 어릴 때부터 AI 윤리와 비판적 사고를 가르쳐야 건강한 AI 활용 의식도 만들어진다"고 말했다.
◆ 리터러시를 측정할 수 없으면 관리할 수도 없다
한편 다각적인 리터러시 문제 해결과 논의를 위해 에이블런은 올해 'AI 리터러시 역량평가 도구'를 공개했다. 박 대표는 "체중계가 없으면 다이어트를 지속하기 어렵다. 마찬가지로 AI 역량이 향상되는 과정도 사용자가 눈으로 확인할 수 있어야 학습 동기와 조직의 투자도 지속될 수 있는 것"이라며 개발 배경을 밝혔다. 이에 따라 에이블런의 리터러시 측정 도구는 AI 만족도 조사를 넘어 교육 전후의 역량 변화가 '통계적으로 유의미한지' 분석하는 것이 특징이다. 또한 전체 평균 점수가 아닌 평가 집단의 AI 리터러시 특성을 분석해 "이 집단은 이미 수준이 높으니 다음에는 심화 교육으로 가야 한다"와 같은 후속 전략 수립도 도울 수 있도록 설계됐다.
끝으로 박 대표는 AI 리터러시 보편화가 실현된 이상적 미래 사회를 다음과 같이 전망했다.
"과거 인류가 불을 통제하며 '호모 사피엔스'로 진화했듯 오늘날 AI는 새로운 불의 발견과 같아요. 여기에 올바른 AI 리터러시가 모든 사람에게 정착하면 AI는 우리 사회의 진정한 진화를 이끌어내는 가장 재미있는 도구가 될 수 있을 거예요. 나아가 궁극적으로는 인간은 AI를 파트너 삼아 더욱 지성적인 존재로 진화할 수 있을 것이라 믿고 있습니다."
[디지털데일리 2025.11.04]
이건한 기자
[디지털데일리 이건한 기자] 너도나도 AI 학습에 열심인 시대다. 다만 그 열풍에 가려 잘 드러나지 않는 문제는 우리가 AI를 단순한 스킬(Skill, 기능)처럼 오해하는 경향이다. 사실 오늘날 AI는 기존의 컴퓨터·스마트폰과는 본질적으로 다른 기술이다. 단순히 사용자의 지시를 이행하는 수준을 넘어 인간처럼 사고하고 추론한다. 또한 그 결과물은 사용자의 의사결정에 직접적인 영향력을 미치기도 한다. 한마디로 오늘날 AI는 일부나마 인간의 '주권'을 공유하는 대상이다. 이런 기술을 과연 우리의 의지대로 쉽게 통제할 수 있는 컴퓨터나 스마트폰 앱 다루듯 사용해도 될까?
이런 질문은 결국 단순한 AI 스킬 교육을 넘어 사용자가 AI의 결과물을 직접 판단하고 통제할 수 있는 'AI 리터러시(Literacy)' 교육이 더 중요하다는 목소리로 이어진다. 그렇다면 AI 스킬과 리터러시 교육의 차이는 어떻게 구분해야 할까? AI 교육 전문기업 에이블런의 박진아 대표와 이야기를 나눴다.
박진아 에이블런 대표
◆ 리터러시? "AI가 더 나은가 판단하는 힘"
박 대표는 스킬과 리터러시는 명확히 다른 개념이라고 선을 그었다. 먼저 AI 스킬은 사용자의 관심과 활용 능력에 따라 3단계로 나뉜다는 설명이다. 그 중 '초급'은 AI를 거의 안 써봤거나 관심도가 낮은 단계다. '중급'은 맛집 찾기 등 일상에는 활용하지만 업무 생산성 향상에 활용하는 수준에는 도달하지 못한 단계다. 숙련자에 해당하는 '고급'은 사용자가 AI로 기존에 할 수 없었던 복잡한 업무까지 해결해내는 단계다. 한마디로 철저한 '기능' 그 자체인 셈이다.
반면 'AI 리터러시'는 이 모든 기능적 단계에 공통적으로 필요한 상위 역량이다. 박 대표는 "AI의 제안이 나에게 더 나은 것인지 스스로 판단할 수 있는 능력"으로 AI 리터러시를 정의했다. 또한 이를 위한 AI 리터러시 역량을 다시 '이해', '활용', '문제해결', '비판적 평가' 등 4개 요소로 세분화했다.
그 중 '이해'는 AI의 기본 개념에 대한 지식 수준이다. '활용'은 챗GPT·제미나이 등 사용자가 스스로 목적에 맞는 AI 도구를 선택하고 필요한 프롬프트를 설계하는 수준이다. 다음으로 '문제 해결'은 AI가 제공한 정보 가운데 문제 해결에 필요한 최적의 답을 판단할 때 필요한 기준을 세우는 역량이다. 이어 박 대표가 가장 중요하다고 지목한 '비판적 평가'는 AI 출력물의 신뢰도를 사용자가 직접 평가하고 신뢰도를 검증할 수 있는 능력이다.
박 대표는 "일례로 AI가 'A 식당의 평점은 4.5점, B 식당 4.3점'이라고 답했을 때 '0.2점 차이가 신뢰할 수준인가?', '데이터의 출처는 어디지?', '식당이 지금은 없어진 게 아닐까?'처럼 의심하고 사실 여부를 확인해보는 과정이 비판적 평가"라고 설명했다. 이와 함께 "AI가 결과물을 출력하는 과정은 일반적으로 확인이 불가능한 블랙박스와 같다"며 "따라서 AI를 맹신하는 건 금물이다. 그보다 AI가 내놓은 결과물의 오류나 함정, 편향성을 감지하는 역량까지 갖춰야 진정한 AI 리터러시의 완성으로 볼 수 있다"고 부연했다.
◆ 사회적 낭비·불신 초래하는 'AI 리터러시 부재'
AI 리터러시의 부재는 개인의 피해나 손해만으로 끝나지 않는다. 사회적 낭비로 이어질 수 있다는 점이 더 큰 문제다. 예를 들어 최근 법조계에서는 변호사들이 AI로 검색한 그럴듯한 판례를 검증 없이 법정에 제출했다가 적발되는 일이 심각한 문제로 대두되고 있다. 이는 법원의 오판으로 인한 피해자 발생 또는 판례 검증에 필요한 행정력 낭비로 이어질 수 있는 중대한 이슈다. 만약 이와 비슷한 일이 반복된다면 AI 활용에 대한 사회적 인식 또한 부정적으로 변할 수밖에 없다.
낮은 AI 리터러시 수준은 기업의 AI 전환(AX)에도 치명적이다. 박 대표는 "많은 기업이 AX를 선언했지만 유효한 성과를 거둔 곳은 20% 미만"이라며 "조직의 AX 성패는 조직원들의 리터러시 수준에도 큰 영향을 받는다. 이를 모르고 AI 스킬 교육에만 집중한 기업은 AI 도입에 계속 실패하고 결국 그 동력마저 상실하고 만다"고 지적했다.
그렇다면 이런 AI 리터러시 부재가 장기화되면 우리 사회에 어떤 일이 벌어질까? 박 대표는 스킬 중심의 AI 그룹과 리터러시 중심의 AI 그룹 간 격차가 사회 문제로 비화할 가능성을 내다본다. 특히 그와 관련된 큰 위협으로 '편향의 제도화'와 '사회적 양극화'를 꼽았다. 이 중 편향의 제도화는 AI의 잘못된 판단이 비판 없이 수용되다가 하나의 사회 시스템으로 굳어지는 현상이다. 박 대표는 "예컨대 기업 인재 채용에 사용되는 AI가 어떤 편향된 데이터를 학습했다면 어떨까. 만약 특정 설별이나 나이대를 우대한다면? 그 편향은 자칫 그 회사의 잘못된 채용 정책으로 고착화될 수 있다"고 경고했다.
◆ 가장 시급한 교육 대상은 '조직 리더와 정책 입안자'
결국 이런 관점에서 AI 리터러시 교육은 선택이 아닌 필수라는 결론이 나온다. 최소한 AI가 어떻게 작동하는지, 어떤 실수를 할 수 있는지조차 모르고 AI에게 중요한 일을 대신하게 할 수는 없는 일이기 때문이다. 따라서 AI 리터러시는 교육은 가급적 이 시대의 모든 사람을 대상으로 이뤄지면 좋다. 만약 전국민 동시 교육에 필요한 자원이 부족하다면 우선순위라도 정해야 한다.
이에 발맞춰 AI 리터러시 역량을 가장 먼저 강화해야 할 최우선 대상은 누구일까? 박 대표는 이 질문에 "이견의 여지없이 정책 입안자와 기업 리더들"이라고 단언했다. "특히 기업의 AI 혁신은 부하 직원이 아닌 리더가 먼저 AI의 필요성을 이해하고 강력한 톱다운(Top-down) 정책을 펼쳐야 조직 전체의 변화 또한 빨라진다"고 강조했다. 장기적으로는 학생 교육도 우선순위다. 박 대표는 "지식을 스펀지처럼 흡수하는 학생들은 어릴 때부터 AI 윤리와 비판적 사고를 가르쳐야 건강한 AI 활용 의식도 만들어진다"고 말했다.
◆ 리터러시를 측정할 수 없으면 관리할 수도 없다
한편 다각적인 리터러시 문제 해결과 논의를 위해 에이블런은 올해 'AI 리터러시 역량평가 도구'를 공개했다. 박 대표는 "체중계가 없으면 다이어트를 지속하기 어렵다. 마찬가지로 AI 역량이 향상되는 과정도 사용자가 눈으로 확인할 수 있어야 학습 동기와 조직의 투자도 지속될 수 있는 것"이라며 개발 배경을 밝혔다. 이에 따라 에이블런의 리터러시 측정 도구는 AI 만족도 조사를 넘어 교육 전후의 역량 변화가 '통계적으로 유의미한지' 분석하는 것이 특징이다. 또한 전체 평균 점수가 아닌 평가 집단의 AI 리터러시 특성을 분석해 "이 집단은 이미 수준이 높으니 다음에는 심화 교육으로 가야 한다"와 같은 후속 전략 수립도 도울 수 있도록 설계됐다.
끝으로 박 대표는 AI 리터러시 보편화가 실현된 이상적 미래 사회를 다음과 같이 전망했다.
"과거 인류가 불을 통제하며 '호모 사피엔스'로 진화했듯 오늘날 AI는 새로운 불의 발견과 같아요. 여기에 올바른 AI 리터러시가 모든 사람에게 정착하면 AI는 우리 사회의 진정한 진화를 이끌어내는 가장 재미있는 도구가 될 수 있을 거예요. 나아가 궁극적으로는 인간은 AI를 파트너 삼아 더욱 지성적인 존재로 진화할 수 있을 것이라 믿고 있습니다."