이 AI 법칙이 모두 나쁜 것은 아닙니다.

이 AI 법칙이 모두 나쁜 것은 아닙니다.

기업과 정부가 인력을 관리하기 위해 기계 학습을 사용하는 회사의 최고 기술 책임자로서 뉴욕과 다른 곳에서 나오는 새로운 법률에 대해 걱정했다고 생각할 수도 있습니다.

저는 아니에요.

In fact, some of these rules may not be all bad when it comes to ensuring your skills inventories, skills taxonomies, and your skills-based organization are built without bias.

솔직히 말씀드리겠습니다. 저도 이런 인공지능 도구들에 대해 회의적인 생각을 가지고 있습니다. 누군가가 제가 온라인 게임을 하는 방식으로 저를 평가한다면, 그것이 정말 최고의 채용으로 이어지는지 확신할 수 없습니다. 그리고, 그런 게임들이 장애를 가진 사람들에게 불리하게 작용할 수 있다는 점도 이해합니다.  

저도 시중에 나와 있는 일부 성격 테스트에 대해 비슷한 느낌을 받았습니다.  

AI의 윤리에 대한 몇 가지 규칙을 갖는 것은 아마도 좋은 일일 것입니다.

AI의 윤리

SkyHive에서는 윤리에 관한 법이 필요하지 않았습니다. 윤리는 언제나 우리에게 중요한 고려사항이었기 때문입니다, 부차적인 문제가 아니라. 당사는 투명하고 설명 가능하며 차별을 방지하는 것을 염두에 두고 특허 기술을 구축했습니다. 당사는 MIDAS라는 자체 AI 윤리 인증을 보유하고 있습니다. MIDAS 인증은 데이터 품질과 머신러닝 모델의 정확성에 대한 금본위제를 약속합니다. 이 인증은 데이터 품질, 데이터 완전성, 데이터 기원, 데이터 정확성, 모델 정확성, 모델 신뢰성 및 윤리적 AI 원칙을 강조하며 데이터와 머신러닝 모델의 표준화된 사용을 보증합니다.  

당사는 책임있는 인공 지능 연구소GPAI 와 협력하고 있으며 최근에는 윤리적 AI에 대한 상을 수상했습니다. ( 이 웨비나에서 AI 윤리에 대해 자세히 설명합니다.)

당사는 "화이트박스/글래스박스" AI 접근 방식을 믿습니다. 이는 우리가 하는 일과 지적 재산을 손상시키지 않고 하는 일을 공개한다는 것을 의미합니다.  

당사는 세계에서 가장 큰 스킬 데이터 세트를 보유하고 있습니다. SkyHive는 익명화된 작업자 프로필과 180개 이상의 국가에서 여러 언어로 된 작업 설명을 포함하여 매일 24TB 이상의 원시 데이터를 처리합니다.  

You may be thinking: how does more data make you more ethical? Well, for one, such a large amount of data helps us remove bias by ensuring that any one organization isn’t over-represented, which could introduce bias. Also, it enables us to uncover many more of people’s skills (often that they are unaware they have), leading to more job possibilities for individuals, particularly from non-traditional experiences. Or, as one of our Passport users said regarding their employee skills assessment, “I got to know things about myself I hadn’t thought about.”  

여전히 어둡다

우리가 AI 윤리 기준에 대해 편안하게 책임을 지는 이유를 알 수 있습니다.  

그 기준이 무엇인지는 불분명합니다. 뉴욕의 법은 간단히 말해서 고용주가 기계 학습 또는 유사한 고용 도구를 편견에 대해 감사하도록 요구합니다. 회사가 Skill을 사용하고 있음을 후보자에게 알립니다. 후보자와 직원에게 어떤 직무 자격과 특성이 평가되고 있는지 알려줍니다. 대체 선택 과정이 필요한 사람들에게 숙박 시설을 제공합니다.  

이것은 질문을 제기합니다. 예를 들어, 누가 감사를 수행해야 합니까?  

이 스킬을 사용하는 회사 또는 정부와 같은 조직이 외부 회사 (예 : Mercer, Accenture 등)의 도움을 받아이를 감사해야하는지 여부는 아직 알 수 없습니다. 또는 스킬을 제공 한 회사 (예 : SkyHive)의 감사로 충분할 수도 있습니다. 당사는 곧 알게 될 것입니다.

We’ve been auditing our technology regardless. Any time we release a new feature, it is tested for bias. The purpose of our features, our enterprise technology, our platform, and our Skill Passport in the first place is to provide opportunities for people to be measured on their skills and the transferability of those skills, not on gender, ethnicity, pedigree, or any other potential sources of bias.  

무엇을 찾아야할까요?

원하시는 회사가 법을 잘 준수하고 있는지, 윤리적인 AI를 실천하고 있는지 궁금하신가요? 이를 파악하기 위해 스스로에게 물어볼 수 있는 몇 가지 질문들을 추천드립니다.:

  • 공정성과 윤리가 기술 공급 업체의 DNA의 일부임을 보여주는 역사적 기록이 있습니까, 아니면 법을 준수하기 위해 노력하고 있습니까?
  • 데이터의 출처에 대해 투명합니까? 알고리즘에 사용 된 기준에 대해 투명합니까? 기술이 어떻게 작동하는지 이해합니까 ... 명확하게 설명했기 때문에?  
  • 회사는 GDPR과 같은 전 세계 데이터 보안 및 개인 정보 보호 규칙을 준수합니까?
  • 회사는 AI 윤리에 대한 전문가를 고용하거나 주제에 대해 어떤 식 으로든 이끌고 있습니까?  
  • 얼마나 큰 데이터 세트가 사용되고 있습니까?  
  • AI가 제3자에 의해 감사되었습니까? 언제/얼마나 자주?

두려움을 이해한다

지금 긴장한 사람들과 긴장한 회사가 있습니다. 이유를 이해할 수 있습니다. 그들의 기술은 블랙 박스입니다. 소프트웨어는 공정하거나 규정을 준수하지 않을 수 있습니다. 윤리는 이러한 회사의 우선 순위 1 위가 아닙니다.

저희의 윤리 중심 디자인 문화는 정당화될 수 있고, 그 결과가 해석되고 설명될 수 있는 제품을 만들도록 요구합니다. 저희는 비콥 인증 기업입니다. 저희 회사의 근본적인 목적은 업무를 민주화하고, 노동력에서 소외된 사람들에게 기회를 제공하며, 커뮤니티와 회사들이 일자리 중심에서 스킬 중심으로의 전환을 최적화하는 데 도움을 주는 것입니다. 이는 결코 변하지 않을 것입니다; 저희는 저희가 존재하는 한 비콥 인증 기업으로 남을 것이며, 수십억 명의 사람들이 더 나은 일자리를 얻는 데 도움을 주기 위한 계획을 가지고 있기 때문에, 조만간 사라지지 않을 것입니다.

뉴욕 및 기타 지역의 법률이 어떻게 시행되는지, 그리고 그 세부 사항이 무엇인지에 대해 더 많은 정보를 얻고 싶습니다. 그 사이에도, 당사는 올바른 일이라고 생각되기 때문에 현재 하고 있는 일을 계속 진행할 예정입니다.

Download PDF

워크포스의 잠재력을 발휘해 보세요

세계에서 가장 윤리적인 AI 기술로 직무 중심에서 스킬 중심으로의 전환을 시작하세요 — 입증된 기술로 국제적으로 수상하며 인정받고 있습니다.

데모 신청하기

관련 리소스

"모든 쿠키 허용"을 클릭하면 사이트 탐색을 개선하고 사이트 사용을 분석하며 마케팅 활동을 지원하기 위해 귀하의 기기에 쿠키를 저장하는 데 동의합니다. 자세한 내용은 개인정보 처리 방침을 참조하세요.