메뉴 건너뛰기

기타 서비스 메뉴

유료 채용광고 문의

잡코리아 고객센터

1588-9350

평일
09:00 ~ 19:00
토요일
09:00 ~ 15:00
유료서비스 문의

배너

기술이 사람을 만났을 때 : 인공지능이 HR에 적용되기 전에 미리 고민해야 할 이슈

HR매거진 2023.09.07 11:46 116 0

 

우리나라도 인공지능을 인사관리 영역에 도입함으로써 발생할 수 있는 차별 및 윤리적 이슈를 곧 만나게 될 것이다. 우리가 SHRM 컨퍼런스와 같은 곳에 참여하는 이유는 그들이 앞서 고민했던 주제를 빠르게 학습해서 시행착오를 줄이기 위함이다. 최근 SHRM 컨퍼런스에서는 인공지능을 활용하는 과정에서 발생한 차별과 윤리적 이슈를 어떻게 다루었는지 살펴보자.

 

2023년 6월 29일, 미국 대법원은 인종에 기반한 대입 우대 정책인 '어퍼머티브 액션(Affirmative Action)'이 위헌이라는 판결을 내렸다. 이 판결은 미국 대학이 입시 전형에서 아시아인, 히스패닉 등의 소수 인종 지원자들에게 가산점을 부여하는 관행에 문제가 있다고 판단한 것에서 비롯됐다. 대법원은 '공정한 입학을 위한 학생들(Students for Fair Admissions), SFA'의 모임이 소수 인종 우대 입학 제도로 백인과 아시아계 지원자를 차별했다며 노스캐롤라이나대와 하버드대를 상대로 제기한 헌법소원에서 각각 6 대 3, 그리고 6 대 2로 위헌이라고 결정했다. 

 

 

 

 공정성과 차별에 대한 요구가 더 강력해지는 시대

그러나 이 판결에 대한 미국 내 여론은 분분하다. 2023년 7월 2일 ABC뉴스에서 발표한 여론조사에 따르면, 응답자 52% 이상이 어퍼머티브 액션에 대한 위헌 판결을 지지했다. 반면에 '반대한다'라는 응답은 32%, '모르겠다'라는 응답은 16%였다. 특히 입학 시 인종별 영향과 관련해 백인 학생에 대해서는 전체의 9%가 '인종 문제로 불공정한 불이익을 받는다'라고 응답했으며, 흑인 학생의 경우에는 36%, 히스패닉의 경우에는 37%를 각각 기록했다. 아시아계 학생이 인종 문제로 불공정한 불이익을 받는다고 보는 응답자 비율은 22%이었다. 

 

어퍼머티브 액션은 미국에서 차별을 받는 집단에 대한 보호와 지원을 목표로 하는 정책이다. 이 정책은 1961년 존 F. 케네디 대통령이 행정명령 10925를 발표하면서 시작됐다. 이는 연방 정부의 계약자가 고용과 진급에서 '행동적인 조치'를 취해야 하며, 이는 모두에게 인종, 피부색, 종교, 성별, 국적이 고려되지 않는 공정한 고용 기회를 보장하는 것을 의미했다. 1964년에는 미국의 시민권법이 제정되어 모든 인종, 종교, 성별, 국적에 대한 차별을 금지했다. 이 법은 고용, 교육, 주거, 공공시설 사용 등 다양한 분야에서 차별을 금지했다.

 

이후 어퍼머티브 액션은 미국뿐만 아니라 전 세계 여러 국가의 인사관리에 큰 영향을 미쳤다. 특히 조직 내 다양성을 증진하고 차별을 줄여 모든 직원에게 공정한 기회를 제공하는 것을 목표로 하기 때문에 다양성과 포용성 증진 활동의 근간이 되기도 했다. 그런데 이러한 어퍼머티브 액션의 법률적 타당성이 흔들린다는 것은 미국 사회에 공정성과 차별에 대한 요구가 더욱 강력해짐을 의미한다.

 

 지속 가능한 인공지능 활용을 위한 고민

이것이 비단 인사관리에서 소수자를 위한 영역에만 해당하는 건 아닌 듯하다. 2023 SHRM 컨퍼런스 중 인공지능과 관련된 세션에서는 '인공지능을 인사관리에 효과적이고 효율적으로 적용하는 방법'이 아닌 '인공지능 활용 시 법률 적용, 차별 요소에 대한 고민, 그리고 윤리적 이슈'가 주요 논의 사항이었다. 즉 인공지능에 대한 인사관리 영역에서의 고민이 '잘' 쓰는 것을 넘어 '지속 가능하게' 활용하는 부분으로까지 발전됐음을 의미한다. SHRM 컨퍼런스에서 주요하게 등장한 주제와 키워드는 곧 한국 인사관리에도 적용된다. 그렇다면 SHRM에서는 인공지능을 활용하는 과정에서 발생하는 차별과 윤리적 이슈를 어떻게 다뤘을까?

 

우선, 평등고용기회위원회(Equal Employment Opportunity Commission)에서 주요하게 살펴보고 있는  인공지능과 관련된 알고리즘 편향, Title VII, (ADEA Age Discrimination in Employment Act), 고용에서의 연령차별 금지법와 (ADA Americans with Disabililties Act), 장애인 미국인 금지법에 대해 알아보자.

 

구체적으로 Title VII은 인종, 피부색, 종교, 성별, 국적 기원에 기반한 고용 차별을 금지한다. 이는 고용주가 이러한 요인을 고려해 직원을 고용하거나 해고하는 것을 금지하며, 또한 이러한 요인에 기반한 임금 책정, 훈련, 승진, 그리고 다른 고용 관련 조건을 차별하는 것도 금지한다.

 

다음으로 ADEA는 40세 이상의 개인들이 연령에 기반한 고용 차별을 받는 것으로부터 보호한다. 이 법은 고용주가 연령을 고려해 직원을 고용하거나 해고하는 것을 금지하며, 또한 연령에 기반한 임금 책정, 훈련, 승진, 그리고 다른 고용 관련 조건을 차별하는 것을 금지한다. ADA는 장애인이 공공 생활의 모든 영역을 포함해 직장에서 차별을 받는 것을 금지한다. 이 법은 장애인이 고용, 주택, 교육, 교통, 그리고 다른 공공 서비스에 동등한 접근권을 가지도록 보장하고, 그에 따라 고용주는 합리적인 수용을 제공해 장애인 직원이 자신의 직무를 수행할 수 있도록 해야 한다는 내용을 담고 있다.

 

특히 EEOC는 지난 5월 18일 AI와 Title VII 가이드라인을 제시한 바 있는데 이는 고용주가 신입사원 선발, 성과 모니터링, 급여 또는 승진 결정 등에 인공지능을 포함한 자동화 시스템을 활용함에 있어 Title VII 준수의 중요성을 강조한 것이다.1) 관련 문헌을 보면 자동화 시스템과 관련된 소프트웨어, 알고리즘 및 인공지능에서 간접 차별(Adverse impact)이 있는지를 평가해야 함을 강조하고 있다.

 

이렇듯 인공지능 활용에 대한 가이드라인과 법률이 최근 더욱 강조되고 있는데 이는 조 바이든 정부에서 더욱 강화하고 있는 'Blueprint for an AI Bill of Rights & Fact Sheet'에 영향을 받은 것이기도 하다. 지난 2022년 10월 미 백악관은 미국 국민을 보호하기 위해 자동화 시스템 활용 시에 지켜야 할 5가지 원칙을 발표한 바 있다. 첫째, 안전하고 효과적인 시스템(Safe and Effective Systems), 둘째, 알고리즘 차별 보호(Algorithmic Discrimination Protections), 셋째, 데이터 프라이버시(Data Privacy), 넷째, 고지 및 설명(Notice and Explanation), 다섯째, 인간의 대안, 고려 사항 및 대체 방안(Human Alternatives, (Consideration, and Fallback)이 바로 그것이다.

 

요약하면 인공지능은 인간이 안전하게 사용할 수 있도록 개발되어야 하며, 인간이 성별, 인종, 종교 등 특정 요소로 인한 차별을 느끼게 해서는 안 되고, 개인정보 보호 조치를 해야 하며, 인공지능 활용에 있어서 사전 통보 및 설명을 충분히 해줘야 한다는 것이다. 또한 누군가가 원한다면 인공지능이 아닌 사람으로 대체할 수 있어야 한다는 것이다. 미국 정부의 이러한 원칙 하에 EEOC에서는 보다 구체적인 가이드라인 등을 제시하고 있다고 볼 수 있다.

 

 인공지능 사용, 문제는 간접차별

이러한 방향성은 앞으로 우리 인사관리에도 큰 영향을 미칠 것이다. 왜냐하면 여러 조직에서 인공지능을 도입해서 사람에 대한 의사결정을 내릴 때 어떤 알고리즘을 활용해서 의사결정을 내리는지에 대해서는 블랙박스 모델이라고 봐도 과언이 아니기 때문이다. 특히 구직자는 인공지능이 채용 활동에 개입하는지조차도 모르는 상황이다.

 

그러나 인공지능이 학습하는 데이터에 따라서 차별을 야기하고, 알고리즘 특성상 이러한 특성이 강화된다는 점을 고려한다면 빠른 시일 내에 한국에서도 관련 논의가 필연적으로 이루어질 것이다. 실제로 과학기술정보통신부에서는 기업 인공지능 윤리 확보를 위한 가이드라인을 제시하고 검증 체계를 지원하기 위해 여러 논의를 본격화하고 있다. 그러나 구체적 지침이 나오기까지는 시간이 걸릴 예정이다.

 

그러나 필자가 생각하는 더욱 큰 문제는 인공지능 관련 법률 및 가이드라인이 제시되기 전에 발생한 여러 가지 문제들이 현재 조직 내에 내재돼 있다는 점이다. 일례로 간접차별(Adverse impact) 문제만 하더라도 우리가 활용하는 여러 채용 도구에 잠재된 큰 문제다. 간접차별은 특정 집단에 대해 차별적 결과를 초래하는 고용 정책이나 절차를 의미한다. 이는 고용주가 의도하지 않더라도 결과적으로 발생할 수 있다는 점에서 간접차별로 불린다.

 

예를 들어 한 회사가 채용 과정에서 특정 체력 테스트를 요구한다고 가정해 보자. 이 테스트는 직무와 직접적으로 관련이 없지만 모든 지원자에게 동일하게 적용되고, 그 결과 남성 지원자들이 여성 지원자들보다 더 높은 점수를 받는 경향이 있다면, 이는 간접차별이 될 수 있다. 왜냐하면 이 테스트는 성별에 관계없이 모든 지원자에게 공평하게 적용되지만, 실제로는 여성 지원자들에게 불리한 결과를 초래하기 때문이다.

 

간접차별을 판단하기 위해서 보통 많이 활용되는 것이 바로 3/4 룰이다. 이 규칙은 앞서 소개한 EEOC에 의해 제안됐다. 이 규칙에 따르면, 특정 인종, 성별, 연령대 등 소수 집단의 성공률이 기득권 혹은 대규모 집단의 성공률의 80% 또는 4/5 미만일 경우, 그 고용 절차는 간접차별을 초래했다고 볼 수 있다.

 

예를 들어 한 회사에서 100명의 남성 지원자 중 60명을 채용했고, 100명의 여성 지원자 중 40명을 채용했다고 가정했을 때, 남성의 합격률은 60%이고, 여성은 40%다. 여성의 합격률(40%)을 남성의 합격률(60%)로 나누면 0.67 또는 67%가 나오고, 이는 80%보다 낮으므로, 이 채용 절차는 여성에 대한 간접차별이 있을 수 있다. 이 3/4 룰은 간접차별의 존재를 확실히 증명하는 것이 아닌 가능성을 나타내는 지표이며, 이 규칙에 따라 간접차별이 의심될 경우, 고용주는 해당 고용 절차가 필요에 따른 것이며 모든 절차가 공정하게 적용됐음을 증명해야 한다.

 

다만 한국에서는 간접차별에 대한 개념 및 데이터 분석 사례가 지난 2022년 이뤄진 어승수 외의 연구2)를 제외하고는 인사영역에서 거의 이루어진 바가 없는 것이 우려되는 부분이다. 왜냐하면 향후 인공지능이 채용 및 인사 의사결정에 도입될 경우 필연적으로 간접차별에 대한 논의가 따라올 것이기 때문이다.

 

지금까지 살펴본 인공지능이 인사관리 영역에 도입됨에 있어 발생할 수 있는 차별 및 윤리적 문제 관련 법률과 그 개념은 다소 어렵고도 지루하게 느껴질 수 있다. 그러나 우리가 SHRM 컨퍼런스와 같은 곳에 참여하는 이유는 단순히 글로벌 선진 기업의 사례를 그대로 답습하기 위해서는 아니다. 그들이 앞서 고민했던 주제를 빠르게 학습해서 시행착오를 줄일 수 있다는 점에서 의미가 있을 것이고, 이는 매우 다행스러운 점이다. 본 고를 통해 HR담당자들이 '곧' 겪고 고민하게 될 문제를 미리 고민하고, 나름의 해답을 찾아보길 바란다.

 

 

Posted by 이중학 가천대학교 경영학부 HR데이터분석 교수

 

 

본 기사는 월간 HR Insight 2023. 8월호의 내용입니다. 

HR Insight의 더 많은 기사를 보고 싶다면 아래 홈페이지를 방문해주세요.

www.hrinsight.co.kr

 

 

  

이전글
위기 상황에 필요한 HR은 강해야 하는가?
다음글
코칭 리더십의 조직 내 소프트랜딩 방안

본 자료의 저작권은 잡코리아에 있으며 무단전재 및 재배포를 금지합니다.

댓글

의견 나누기
댓글
0

0 / 300

등록된 댓글이 없습니다.