Publications on AI

AI Governance

AI 거버넌스 관련 연구 논문 목록입니다.

AI 거버넌스(AI Governance)는 인공지능의 개발·활용·규제에 관한 윤리·법·사회적 원칙과 관리 체계입니다. 이경전 교수 연구실은 악성 댓글 분류, 정책 분류 자동화, AI 윤리 포럼 등을 통해 국내 AI 거버넌스 담론을 선도하고 있습니다.

AI 거버넌스 주요 연구 논문은?

AI & BM Lab은 AI 윤리, 알고리즘 편향, 규제 프레임워크, 악성 콘텐츠 탐지 등 AI 거버넌스 전 분야에 걸친 연구를 수행하며, 국내외 AI 정책 자문에 참여하고 있습니다.

AI Governance

AI 윤리적 설계 프레임워크

AI 시스템의 윤리적 설계 기준과 프레임워크 연구.

AI Governance

데이터 주권 정책 연구

개인 데이터 주권 보장을 위한 AI 정책 설계 연구.

AI Governance

AI 규제 및 사회적 책임

AI 기술 발전과 사회적 책임 사이의 균형 방안 연구.

AI 거버넌스 연구 및 프로젝트 목록은?

다음은 AI 거버넌스 프레임워크 설계 및 AI 윤리 관련 연구 논문·프로젝트 목록입니다.

아래는 경희대학교 이경전 교수 AI & BM Lab(bmer.net)의 실제 연구 성과 목록입니다.

자연어 처리 기반의 추천시스템을 활용한 Demand Forecasting및 Trend Forecasting 방법론

정백 , 김수현 , 이건호 , 조영재, 이경전, 자연어 처리 기반의 추천시스템을 활용한 Demand Forecasting및 Trend Forecasting 방법론. 2022 한국지능정보시스템학회 추계학술대회, 2022 Abstract 추천시스템을 통해 추천된 Product들은 User가 구매할 확률이 높은 Product를 예측하여 추천하는 것으로, 인공지능

원문 보기 →

Policy Perceptron: 정책 분류 자동화를 위한 인공지능 모형 개발

이경전 , 황보유정 , 정백 , 유지웅 , 배성원 , 임채원. (2022). Policy Perceptron: 정책 분류 자동화를 위한 인공지능 모형 개발. 한국행정학회 하계학술발표논문집 (pp. 2593-2606). Abstract 정책 변동이 점진적인지 아니면 급격하게 일어나는 것인지에 대한 논의가 오랫동안 이어져 온 것과 관련하여, 과거 공공의제 변동

원문 보기 →

악성 댓글 분류 시스템 모니터링 연구: 네이터 클린봇 분석

유지웅, 황보유정, 손동성, 이경전, 악성 댓글 분류 시스템 모니터링 연구: 네이터 클린봇 분석, 2020 한국지능정보시스템학회 춘계학술대회, 2020. Abstract 인공지능 기기의 오작동 및 편향성 문제 등 여러 부정적 영향에 대해 우려하는 목소리가 적지 않다. 본 논문에서는 네이버의 악성 댓글 분류기 ‘클린봇’을 분석하여 안정적으로 악성 댓글을 분류

원문 보기 →

AI Governance Forum

AI Governance Forum(이경전, 포럼 대표), 인공지능 거버넌스와 정책, 2020.

원문 보기 →

자주 묻는 질문 (FAQ)

AI 거버넌스란 무엇인가?
AI 거버넌스는 AI 시스템의 개발·배포·사용 전 과정에서 윤리성·안전성·공정성을 보장하기 위한 원칙, 규정, 관리 체계입니다. 알고리즘 편향 방지, 프라이버시 보호, 설명 가능성 확보, 책임 소재 규명 등을 포함합니다.
AI 거버넌스가 왜 중요한가?
AI가 채용·신용·의료·사법 등 고위험 영역에 활용되면서 편향·차별·프라이버시 침해 위험이 커졌습니다. 거버넌스 체계가 없으면 AI의 의사결정이 사회적 불평등을 심화시킬 수 있습니다. EU AI Act, 한국 AI 기본법 등 각국 규제도 이를 반영합니다.
한국의 AI 거버넌스 현황은?
한국은 2020년 AI 윤리 기준을 발표하고, 개인정보 보호법을 개정해 AI 학습 데이터 규제를 강화했습니다. 2024년 AI 기본법이 제정되어 고위험 AI에 대한 규제 프레임워크가 마련됐습니다. 이경전 교수는 AI 거버넌스 포럼 주도와 Policy Perceptron 연구 등으로 기여했습니다.
설명 가능한 AI(XAI)와 거버넌스의 관계는?
설명 가능한 AI(Explainable AI)는 AI 의사결정의 근거를 인간이 이해할 수 있게 제시하는 기술로, AI 거버넌스의 핵심 수단입니다. XAI 없이는 AI 결정에 이의를 제기하거나 책임을 물을 수 없어 거버넌스가 형식화될 위험이 있습니다.

AI 거버넌스 연구 전체 목록

TREATMENT — AEO 적용