2023년 9월 27일

AI 사용에 대한 도발적인 질문

AI 사용에 대한 도발적인 질문

때때로 AI에 대해 이미 모든 것이 언급되고 질문된 것처럼 느껴질 때가 있습니다.

그래서 지난주 오스틴에서 열린 Applied Intelligence Live에서 패널을 이끈 SkyHive의 공동 창립자이자 최고 Skill 책임자인 모한 레디는 패널에게 흔하지 않은 질문에 대부분의 시간을 할애하도록 했습니다: AI가 인간보다 어떤 일을 더 잘할 수 있는지 어떻게 알 수 있을까요?  

패널리스트(고용주가 아닌 자신을 대표)가 참여했습니다:

  • 코란 달링, AI 및 데이터 분석, DLA Piper US LLP
  • 장 샤오첸, FinTech4Good 최고 경영자
  • Lauren Loera, Skill 채용 연구원, Netflix

장이 "AI가 여러분을 더 나은 변호사로 만들어준다"고 말하면서 본격적인 대화가 시작되었습니다.

레디는 이것을 어떻게 확신할 수 있는지 물었습니다. 인공지능이 어떤 작업을 매우 빠르고 효율적으로 처리할 수 있지만, 나중에 그것을 수정하기 위해 시간을 들여야 한다는 사실을 알게 될 수도 있지 않을까요?

이에 대해 대부분의 패널은 AI가 오류를 금지하지 않는다고 답했습니다. 대신 선별하고 요약하는 데 도움을 준다는 것이죠. 예를 들어 달링은 면책 조항이 있는 모든 법적 계약서를 찾을 수 있다고 말했습니다. 그러면 사람이 해당 조항을 검토할 수 있습니다.

장은 AI가 사람을 대신해 결정을 내리는 것이 아니라 긴 글을 짧은 주장, 짧은 요약으로 바꿀 수 있다고 말하며 동의했습니다.

로에라 역시 마찬가지로 기존 도구를 재포맷하고 수정하며 프레임워크를 구축하는 데 있어 AI의 힘을 강조했습니다.

인공지능을 사용할 때 인공지능에 대해 어느 정도의 확신을 가져야 하는지 고려할 때 Reddy는 다음과 같이 제안했습니다:  

  • 사후 검토에 의존하지 말고 견제와 균형이 어디에 있는지 분석하세요. 최고 AI 책임자 또는 최고 윤리 책임자가 있을 수 있지만, AI에 편향성이 존재하는 등 잘못될 수 있는 모든 상황을 고려하지 않았다면 윤리 책임자가 문제를 발견했을 때는 이미 늦은 것일 수 있습니다. 사후 점검뿐만 아니라 견제와 균형이 내장된 스킬을 사용하는 것이 필수적입니다.  
  • AI 모델을 주의 깊게 살펴보세요. "상식이 통하지 않는 경우가 많습니다."라고 레디는 말합니다. "이러한 모델에 구식 추론을 도입해야 하며, 더 책임감 있는 모델이 필요합니다."라고 말합니다. 다시 말해, AI 스킬이 보안법, 데이터 개인정보 보호법을 준수하지 않거나, 감사를 받지 않았거나, 충분히 큰 데이터 풀로 구성되지 않았거나, 엄격한 편향성 검사 및 기타 윤리 기준을 거치지 않았다면 사용하지 말아야 합니다. ( 이 녹화물에서 AI 윤리에 대해 자세히 알아보세요.)
  • 어떻게 작동하는지 물어보세요. AI가 어떤 방식으로 결과를 제공하는지 모른다면, 그리고 명확하게 설명할 수 없다면 사용하지 않는 것이 좋다고 레디는 말합니다.

PDF 다운로드

워크포스의 잠재력을 발휘해 보세요

세계에서 가장 윤리적인 AI 기술로 직무 중심에서 스킬 중심으로의 전환을 시작하세요 — 입증된 기술로 국제적으로 수상하며 인정받고 있습니다.

데모 신청하기

관련 리소스

"모든 쿠키 허용"을 클릭하면 사이트 탐색을 개선하고 사이트 사용을 분석하며 마케팅 활동을 지원하기 위해 귀하의 기기에 쿠키를 저장하는 데 동의합니다. 자세한 내용은 개인정보 처리 방침을 참조하세요.