한국 여성이 AI를 말할 곳은?👩💻🎙️
국내 AI 기업 행사에서 여성 발표자 비율은 12%에 불과합니다. AI 분야의 젠더 편향은 왜 문제이고, 어떻게 하면 개선할 수 있을까요?
🦜AI 윤리 레터
소소, 승아, 아침
최종 업데이트: 2024-04-02
2021년 열린 NAVER AI NOW라는 컨퍼런스가 있습니다. 네이버는 여기서 하이퍼클로바 LLM을 공개, 한국어에 특화된 기술로 'AI 주권'을 확보하겠다 선언합니다. 국내 대표 테크기업인 네이버가 그간의 연구 성과를 갈무리하고, 현재로 이어지는 AI 상용화 추세에 박차를 가한 상징적인 행사인데요.
테크기업이 주최하는 기술 컨퍼런스는 조직의 성취와 기술력을 선보이는 자리입니다. 또한 비전과 문화를 제시하며 커뮤니티를 활성화하고 채용을 홍보하기도 합니다. 말하자면 세를 과시하는 행사입니다. 발표하는 인물 역시 주요 구성원 및 협력 파트너가 대부분입니다. 연사들의 면모는 곧 해당 기업이 보여주고 싶은 모습과 밀접하다는 얘기도 됩니다.
AI NOW 컨퍼런스 발표자는 17명. 웹사이트에서 명단을 보고 있으면 한 가지 눈에 띄는 사실이 있습니다. 17명 중 여성은 한 명도 없습니다. 네이버가 AI 주권을 선언하는 자리에 여성의 목소리는 들리지 않았던 것입니다.
이런 현상을 지칭하는 용어도 있습니다. 남성(man)만으로 구성된 패널 집단인 '매널(manel)', 남성만으로 구성된 컨퍼런스인 '맨퍼런스(manference)' 등입니다.
AI 관련 행사에 여성이 적게 등장하는 것이 네이버만의 특징은 아닙니다. 컨퍼런스가 업계 종사자의 목소리를 드러내는 자리라고 할 때, 한국 AI 업계에서 여성의 목소리는 어느 정도 들리고 있을까요? 2021년부터 2023년 사이 열린 행사 14건을 살펴봤습니다.
17명 100%
0명 0%
14명 88%
2명 13%
13명 93%
1명 7%
30명 97%
1명 3%
26명 84%
5명 16%
40명 89%
5명 11%
17명 89%
2명 11%
22명 79%
6명 21%
10명 100%
0명 0%
제3회 HMG 개발자 컨퍼런스
현대자동차그룹
트랙: 머신러닝, 알고리즘, 딥러닝, NLU, 챗봇, ChatGPT, 생성형AI, 할루시네이션, 영상인식, 자율주행, 검사비전
2023-11-13
20명 95%
1명 5%
35명 76%
11명 24%
11명 92%
1명 8%
7명 78%
2명 22%
70명 88%
10명 13%
살펴본 14건의 행사에서 AI/ML 관련 총 발표자는 379명이었습니다. 이 중 여성 발표자는 47명으로, 전체 중 12%에 불과합니다.
여성 연사가 아예 한 명도 없는 경우도 있고, 여성 연사 비율이 가장 높은 행사(Google Cloud Summit)의 경우에도 24%에 그쳤습니다.
참고 삼아 비교하자면:
💭 ICT 산업 평균 여성인력 비율은 28.1%(2017년 기준)입니다.
💭 네이버 여성인력 비율은 39%, 기술직 중 여성 비율은 20%(2022년 기준)입니다.
💭 카카오 여성인력 비율은 44%, 기술직 중 여성 비율은 21% (2022년 기준)입니다.
AI/ML을 주제로 발표한
연사 379명 중
332 명 88%
47 명 12%
왜 이런 현상이 나타날까요? 행사 주최측이 일부러 여성을 배제하는 게 아닌 이상 말입니다. 우선 AI 분야에 여성이 압도적으로 적고, 그나마 있는 여성도 컨퍼런스 같은 공개 행사에서는 상대적으로 과소대표되고 있다고 볼 수 있습니다. AI 분야에 존재하는 심각한 젠더 편향의 모습입니다.
AI 분야 젠더 편향, 왜 문제인가?
AI 분야의 젠더 편향은 왜 문제가 될까요? AI 업계만 그런 것도 아니고, 기술 업계에서 여성이 과소 대표되는 문제가 어제오늘 일도 아닌데요. 하지만 새로운 일이 아니라고 별일 아닌 것은 아닙니다.
당연한 말이지만 성평등은 그 자체로 중요한 가치입니다. 특히 AI 분야 등에서 “낮은 여성 대표성은 결국 남녀 임금격차의 원인”이 되기에, 유망 영역인 AI 산업에서 다양성을 더욱 신경 써야 할 이유도 있습니다. 임원진의 젠더 다양성이 기업 성과와 강한 상관관계를 보인다는 맥킨지 연구 같은 사례도 고려해 볼 만하고요.
AI 분야 젠더 편향의 문제는 업계 안의 격차에만 그치지 않습니다. 인적 구성의 다양성 부족은 곧 다양한 관점의 부재, 가치관 획일화로 연결됩니다. 그럴수록 AI 산업 활동이 기존 사회적 편향 및 구조적 불평등(내지 이를 반영하는 데이터 편향)을 재생산하는, 문제 있는 AI 시스템으로 이어질 위험도 커집니다. 관점이 다양하지 못하면 많은 사람에게 적용되는 기술의 위험을 감지하고 그에 대응하기가 그만큼 어렵다는 뜻입니다. AI 산업의 파급력이 갈수록 커지는 지금, AI 분야의 편향은 어느 때보다 심각하고 시급한 사안입니다.
대입부터 VC 투자까지, 어디에나 있는 젠더 편향
업계에 존재하는 젠더 편향은, 그 업계를 둘러싼 각종 영역의 젠더 편향과도 연관이 있습니다. 여성가족부가 2021년 발표한 '특정성별영향평가에 따른 2차 정책 개선 권고안'에 따르면 AI 사업 추진 기업의 소프트웨어 전문인력의 여성 비율은 19.1%, 대표자의 여성 비율은 3.1%에 그쳤습니다. 인력을 양성하는 고등교육의 현황은 어떨까요? 이공계 학과에 입학하는 대학생 중 여성 비율 역시 29.2%에 불과합니다. (2019년 기준)
창업자와 이들에 대한 투자로 확대해 보아도 마찬가지입니다. 2021년 크런치베이스의 조사에 따르면, 벤처 투자사의 의사결정자 중 약 12%만이 여성이며, 여성 파트너가 한 명도 없는 벤처 투자사가 여전히 대부분입니다. 하버드의 연구에 따르면 벤처 투자자 중 70%가 제안 내용이 동일함에도 불구하고 여성 창업자가 제시한 제안보다 남성 창업자의 제안을 선호하는 것으로 나타났습니다. 또 다른 연구에서도 여성이 설립하거나 공동 창업한 기업에 대한 벤처 투자가 남성이 창업한 기업에 투자하는 금액의 평균 절반 미만이라고도 분석했고요. 여성 창업자의 62%는 자금 조달 과정에서 편견을 경험했다고 밝히기도 했지요.
결국 테크 업계와 테크 업계를 뒷받침하는 자본, 그 자본을 움직이는 의사결정자들의 구조가 젠더 편향을 야기한다는 점을 반박하기는 어려울 것 같습니다. 차별 혹은 편향의 의도를 직접적으로 가지고 있지 않더라도, 관련한 여러 의사 결정에서, 과학적 지식과 데이터에서, 서비스 출시에서, 서비스를 통해 생성된 콘텐츠에서 젠더 편향이 발생하는 문제를 인식하지 못하는 방식으로 이 편향을 강화해 왔을 수도 있겠지요.
편향된 업계는 편향된 기술을 만든다
이미 우리가 알고 있는 많은 사례가 이를 방증합니다. 아마존이 2014년부터 개발한 인공지능 채용 프로그램은 이전 10년의 이력서 패턴을 학습해 지원자를 심사하면서 남성 비율이 높은 IT 업계 현실을 학습하게 됐고, 고용 후보에서 '여성'이라는 단어를 감점 요소로 구분했습니다. 결국 이 프로그램은 폐기가 됐었죠.
2019년 영국의 '바빌론 헬스'에서 출시한 건강 챗봇은 팬데믹 시대의 비대면 의료 서비스 가능성을 선보이며 20억 달러 규모의 기업 가치를 인정받았었는데요. 이들이 출시했던 서비스는 문진 과정에서 가상의 59세 남녀가 같은 증상을 호소했을 때 젠더 편향적 조언을 했고, 이 때문에 고발을 당했습니다. 지난해부터 사용자가 폭발적으로 증가하고 있는 여러 인공지능 서비스와, 이를 통해 생성되는 콘텐츠를 통해 수익을 창출하는 플랫폼 기업들에서 젠더 편향 문제가 두드러지는 것은 명백한 사실이고요.
하지만 이런 사례를 접할 때, 어쩌면 아마존의 채용 프로그램도, 최근의 생성형 인공지능 서비스들도 현실을 반영한 것 아니냐고 물을지도 모릅니다. '판사' 이미지를 생성해달라고 했을 때, 현실의 판사 중 대부분이 남성이기 때문에 남성의 이미지를 생성한 것이고, 서비스직에 종사하는 여성의 비율이 높기 때문에 여러 보조 업무를 해주는 음성 또한 여성의 음성을 사용하게 된 것이라고요. 오히려 현실을 반영하지 않고 기계적 중립을 지키는 것이 더 문제가 아니냐고 반문할지도 모르겠습니다.
물론 기술 시스템의 설계와 구현에는 수많은 사람의 판단이 개입되기 마련입니다. 따라서 현실의 편향을 그대로 반영하는 AI 시스템은 일단 불가능하고, 설령 가능하더라도 현실에 존재하는 문제적 구조를 확대재생산 하는 역할을 수행하는 무책임한 결과로 이어지겠지요.
'편향' 제거를 넘어 '차별' 폐지로
그렇다면 인공지능 알고리즘에 의해 생산되는 콘텐츠나 자동화되는 의사 결정에서 이런 편향을 삭제하는 것이 답이 될 수 있을까요? 이런 문제에 대해 여러 선행 연구에서는 데이터의 편향을 제거하는 데만 집중하는 것이 그 편향을 만들어낸 구조적 차별, 그리고 부정의의 문제를 간과하게 만들 수 있어 더욱 문제라고 지적합니다. 학습데이터나 AI 생성 콘텐츠의 균형을 맞추는 것만으로는 충분하지 않습니다.
인공지능 기술을 활용하는 사람들이 받을 수 있는 영향이 그들의 사회적 위치에 따라 불균등할 수 있다는 점을 직시하기 위해서는 인공지능 기술의 문제를 '편향'이 아닌 '차별'의 문제로 확대해야만 한다는 뜻이지요. 이런 맥락에서 앞서 말한 여러 구조적 문제, 그리고 이 구조적 문제들이 야기한 여러 편향은 우리가 마주하고 있는 사회적 '차별'이라고 표현해야 맞겠습니다.
이런 구조적 문제를 해소하기 위해 취할 수 있는 한 가지 접근은, AI 분야 내 젠더 다양성을 확보하는 것입니다. 가령 AI 관련 행사의 성비를 개선한다든가요.
그래서 인공지능 관련 행사에 여성의 목소리를 높여야 한다고 말하는 것입니다. 전체적인 여성 비율이 낮다고 해도, 지금의 흐름에서 여성은 훨씬 과소 대표되기 때문입니다. 여성을 의도적으로 많이 참여시키는 행사는 남성에 대한 역차별이 아니냐고 반문한다면, 지금까지 열린 거의 모든 분야의, 대부분의 행사에서 남성이 연사의 대부분을 차지했을 때 한 번이라도 이상하게 생각한 적이 있었냐고 답할 수 있겠습니다.
콘퍼런스에서 젠더의 비중을 맞추는 작은 노력은 시작일 뿐입니다. 데이터셋 편향 제거가 AI 기술에 관련된 차별 문제 해법의 일부분일 뿐인 것처럼, 가시적인 영역(생성 콘텐츠나 연사 명단 등)뿐만 아니라 그와 연결된 다양한 분야에서 노력을 전개해야 할 필요가 있습니다. 결국 우리가 도달해야 할 곳은, 인공지능 업계의 젠더 편향 문제를 완화하고, 이를 통해 인공지능 시스템의 편향을 줄여 오남용 문제를 해결하는 데 가까워지기 위함이기 때문입니다.
어떻게 AI 분야 젠더 다양성을 개선할까?
어디서부터 AI 업계의 젠더 편향을 잡아나가야 할까요? 가장 먼저 떠오르는 방법은 AI 분야 여성의 목소리를 들을 기회를 더 많이 마련하는 것입니다. AI 콘퍼런스에서 여성 연사의 비율을 높이는 것부터 시작할 수 있습니다. AI 분야에 여성이 소수이기 때문에 초청할 여성 연사가 없다고 생각할 수 있습니다. 그러나 잠재력을 가진 여성 전문가들은 많이 있습니다. 다만 이전에 그들을 무대에서 본 적이 없기 때문에 그들을 찾기 위한 노력이 필요한 것입니다. AI 분야에서 활동하는 여성들에게 더 많은 가시성을 제공하고, 그들의 업적을 인정하는 일이 선행되어야 하는 이유입니다.
국가와 지방자치단체의 위원회를 구성할 때는 특정 성별이 위촉직 위원 수의 60%를 초과하지 않아야 한다는 법이 있습니다. 양성평등기본법 제21조 제2항입니다. 정부 위원회의 성별 편향을 완화하고 대표성을 높이기 위한 권고입니다. 이러한 권고는 관성처럼 반복되는 위원회 구성과 성별 비율의 편향의 해결하고 다양성을 높이는 데도 도움이 됩니다. 특히 남성 비율이 매우 높은 과학기술 분야의 정부 위원회에서는 새로운 여성 위원을 위촉하는 데 원동력 역할을 했습니다.
필진 중 1인이 이 법안에 관해 경험한 바를 소개합니다. 과학기술정보통신부의 다양한 위원회를 구성하는 과정에서 이 법안은 한동안 걸림돌이었습니다. 기존에 위원회 참여 경험이 있는 여성 전문가를 찾기가 어려웠기 때문입니다. 추천 이후에도 위원의 적합성이 검증되기 전까지는 마음을 졸일 수밖에 없었죠. 그러나 위원회에도 경험이 있는 여성 전문가가 하나 둘 늘어나면서, 그 덕에 다른 여성 전문가들도 기회를 얻을 수 있게 되었습니다. 관성을 멈추는 장치 덕분에 위원회의 성별 편향을 완화하고 다양한 목소리를 들을 수 있게 된 것입니다.
관성을 멈추는 또 하나의 장치로, 행사 연사 목록에 젠더를 반영하는 방안도 생각해 볼 수 있습니다. Google I/O 2023(미국에서 주최) 같은 경우에는 AI 트랙 발표자 남녀 성비가 약 7:3 정도입니다. 여전히 아쉽지만, 한국 테크 기업 행사보다는 두 배 이상 나은 수준입니다. 이 행사 페이지에서 눈에 띄는 것은 발표자 대부분이 본인의 젠더 인칭대명사를 명시하고 있다는 점인데요. 이는 먼저 미스젠더링을 방지하기 위한 장치일 테지만, 이런 항목이 있음으로 인해 주최 측이 연사 프로필 정보를 수합하는 과정에서 구성이 너무 편중되지 않았나 자체적으로 점검해 볼 계기를 마련해주는 효과도 기대할 수 있을 것 같습니다.
남성만 말하는 행사를 피하려면?
행사 성비 균형을 맞추기 위해, 유엔 인도네시아가 발간한 “남성만 있는 패널 방지 가이드”의 내용을 참고해 보면 어떨까요? 행사 기획자, 초청 연사, 일반 참석자를 위한 팁을 정리해 놓은 문서입니다.
행사 기획자는…
- 행사가 다양성을 추구한다는 점을 공개적으로 명시하기
- 내부 핵심 구성원과 해당 가치 공유하기
- 젠더, 인종, 사회경제적 배경, 지역, 언어, 장애 등 다양성 쿼터제 고려하기
- 연사 선정 기준을 (유명세, 지위 vs 주제 전문성, 신진) 재검토하기
- 행사 기획에 여성이 참여하도록 하기
- 토크니즘 (단발성 섭외, 구색 갖추기로 여성 한 명만 섭외하기, 여성/소수자 관련 주제로만 섭외하기, 사회자로만 섭외하기 등) 지양
- 사례비 동등하게 지급하기
- 가치 실천에 대해 책임질 수 있는 구조 만들기
초청 연사는…
- 다른 초청 연사들이 누구인지 사전에 물어보기
- 여성의 유의미한 참여를 요구하기
- 본인 대신 누군가를 지명할 경우 가능하면 여성 전문가 지명하기
- 본인이 속한 조직에서 여성에게 연사 역할을 적극적으로 권하기
- 기획자에게 여성 패널을 제안하기
- 최종 패널이 전부 남성일 경우 행사 참석을 취소할 수 있는 조건 요구하기
- 사례비가 (성별 말고) 전문성에 기반해 정당하게 지급되도록 요구하기
참석자는…
- 다양성, 포용성을 기획자에게 요구하기
- 소셜미디어를 활용해 문제 지적하기
나가며
AI 분야에서 여성의 목소리를 더 많이 듣는 것만으로 모든 문제가 해결되는 것은 아닙니다. 그러나 중요한 것은 “다양한 경험을 가진 사람들이 함께 작업을 하면서 예상하지 못했던 문제들을 발견하고 해결 방안을 모색할 수 있다”는 것입니다. 여성뿐만 아니라 다양한 배경을 가진 사람들이 AI 분야에서 활동할 수 있는 환경을 조성하는 것이 시작일 것입니다. 다양한 경험과 배경을 가진 사람들이 함께 작업함으로써 AI 기술의 발전뿐만 아니라, 사회 전반에 걸쳐 더욱 공정하고 포용적인 기술 환경을 조성할 수 있습니다.
그런 의미에서 한국의 AI 행사에서 불균형한 성별을 보완하기 위해 섭외할 수 있는 여성 연사를 적극적으로 찾고자 합니다. 여기에서 추천을 해주세요. 자기 추천도 가능합니다. AI 분야에서 여성 연구자가 더 많이 세상에 목소리를 내기를 바랍니다.
더 읽어보기
젠더, 페미니즘 관점에서 기술을 바라보기
- 조경숙, 『액세스가 거부되었습니다』 (휴머니스트, 2023)
- 윤미선, “챗봇 ‘이루다’가 남겨야 하는 것”, 『인공지능의 편향과 챗봇의 일탈』 (세창출판사 2022), 184-195
- 강현주, “생성형 AI 기술은 트랜스젠더의 오래된 농담을 이해할 수 있을 것인가?: 젠더와 페미니즘 관점에서 생성형 AI 기술을 비판적으로 읽기”, 『문화과학』 114호 (2023년 여름), 146-166
- 소소, "AI 분야의 젠더 격차", 🦜AI 윤리 레터 2024.2.21
- Catherine D'Ignazio and Lauren F. Klein, Data feminism(MIT Press, 2020)
- 이지은, 임소연, “인공지능 윤리를 넘어: 위치지어진 주체로서의 개발자들과 페미니스트 인공지능의 가능성”,
『한국여성학』 제38권 제3호, 2022 - 김신현경, “기계와 AI는 왜 여성의 목소리로 말하는가”, 한국일보 2023.7.29
차별, 편향, 권력의 문제 중심으로 AI를 생각하기
- 마리 힉스, 권혜정 역, 『계획된 불평등』 (이김, 2019)
- 한애라, “인공지능과 젠더차별”, 『이화젠더법학』 vol.11, no.3, 통권 27호 (2019), 1-39
- 사피야 우모자 노블, 노윤기 역, 『구글은 어떻게 여성을 차별하는가』 (한스미디어, 2019)
- 케이트 크로퍼드, 노승영 역, 『AI 지도책』 (소소의책, 2022)
– 4장 “분류”, 맺음말 “권력” - 고학수, 『AI는 차별을 인간에게서 배운다』 (21세기북스, 2022)
– 3부 “새로운 시대의 과제, 알고리즘 공정성과 차별금지” - 오요한, “약자를 차별하지 않는 인공지능으로 충분한가?”, 덕성여대신문 2020.11.22.
- 고아침, "인공지능이 만드는 모두의 딥페이크", 2023.1.31.
- 마테오 파스퀴넬리 & 블라단 욜러, “누스코프 선언: 지식추출주의 도구로서의 AI” (2021)
AI와 젠더 다양성/권력에 관한 보고서류
- 한국여성민우회, 『페미니스트가 함께 만든 AI 가이드라인』 (2021)
- West, S.M., Whittaker, M. and Crawford, K. (2019). Discriminating Systems: Gender, Race and Power in AI. AI Now Institute.
- Konstantinos Stathoulopoulos, Juan Mateos-Garcia, Hannah Owen (2019). Gender Diversity in AI Research. Nesta.