AI 균형 유지: 선을 행하고 피해를 방지 - IBM 블로그

AI 균형 유지: 선을 행하고 해를 피함 - IBM 블로그

소스 노드 : 3084303


AI 균형 유지: 선을 행하고 해를 피함 - IBM 블로그




자라면서 아버지는 늘 “좋은 일을 하라”고 말씀하셨습니다. 어렸을 때 나는 그것이 형편없는 문법이라고 생각했고, "잘해라"라고 주장하면서 그를 교정하곤 했습니다. 심지어 내 아이들도 그의 "좋은 일을 하라"는 조언을 들으면 나를 놀리며 나는 그에게 문법 부분에 합격을 허락했다고 인정할 것입니다.

책임 있는 인공 지능(AI)의 경우 조직은 피해를 방지하는 능력을 중심 초점으로 우선시해야 합니다. 일부 조직에서는 "선한 일"을 위해 AI를 사용하는 것을 목표로 할 수도 있습니다. 그러나 때때로 AI는 "좋음"에 동의하기 전에 명확한 가드레일을 요구합니다.

확장된 AI 수명 주기 전반에 걸쳐 가드레일을 사용하여 생성적 AI 위험을 해결하는 방법을 알아보려면 "Presidio AI 프레임워크" 문서를 읽어보세요.

As 생성 적 AI 계속해서 주류로 자리매김함에 따라 조직은 프로세스를 혁신하고 비용을 절감하며 비즈니스 가치를 높일 수 있는 잠재력에 대해 기대하고 있습니다. 비즈니스 리더는 고객, 환자, 직원, 파트너 또는 시민에게 더 나은 서비스를 제공하고 전반적인 경험을 개선하기 위해 비즈니스 전략을 재설계하고자 합니다. Generative AI는 전 세계 조직에 문을 열고 새로운 기회와 위험을 창출하고 있으며, HR(인적 자원) 리더십은 이러한 과제를 관리하는 데 핵심적인 역할을 합니다.

증가하는 AI 채택의 의미에 적응하려면 다음과 같은 복잡한 규제 요구 사항을 준수하는 것이 포함될 수 있습니다. NISTWalk Through California 프로그램, EU AI 법, 뉴욕 144, 미국 EEOCXNUMXD덴탈의 백악관 AI법이는 HR 및 조직 정책은 물론 사회, 직업 기술 및 단체 교섭 노동 협약에 직접적인 영향을 미칩니다. 책임 있는 AI를 채택하려면 NIST, OECDWalk Through California 프로그램, 책임있는 인공 지능 연구소Walk Through California 프로그램, 데이터 및 신뢰 동맹IEEE.

이는 단순한 IT 역할이 아닙니다. HR이 중요한 역할을 한다

HR 리더는 이제 AI 및 기타 기술을 고려하여 현재 업무에 필요한 기술과 미래 기술에 대해 기업에 조언합니다. WEF에 따르면 고용주들은 향후 44년 내에 근로자 기술의 5%가 중단될 것으로 추정합니다. HR 전문가들은 직원의 업무를 강화하고 더 높은 수준의 업무에 집중할 수 있도록 지원함으로써 생산성을 향상시킬 수 있는 잠재력을 점점 더 탐구하고 있습니다. AI 기능이 확장됨에 따라 모든 비즈니스 리더는 AI 사용으로 인해 직원, 파트너 또는 고객이 희생되지 않도록 고려해야 할 윤리적 우려와 질문이 있습니다.

조직이 책임 있게 AI를 운영에 통합하기 위해 IBM이 권장하는 신뢰와 투명성의 원칙을 알아보세요..

작업자 교육 및 지식 관리는 이제 1년에 한 번 체크박스를 선택하는 것이 아니라 IT, 법무, 규정 준수 및 비즈니스 운영자와 함께 다중 이해관계자 전략으로 긴밀하게 조정됩니다. 따라서 HR 리더는 정책을 수립하고 직원의 AI 통찰력을 키우기 위한 프로그램 개발에 본질적으로 참여해야 하며, AI 기능을 적용할 위치를 식별하고, 책임감 있는 AI 거버넌스 전략을 수립하고, AI 및 자동화와 같은 도구를 사용하여 신뢰할 수 있고 투명한 AI 도입을 통해 직원에 대한 사려 깊음과 존중을 보장합니다. 

조직 내 AI 윤리 도입에 대한 과제와 솔루션

AI 채택 및 사용 사례가 지속적으로 확대되고 있지만 조직은 프로세스와 시스템에 AI 기능을 채택하는 데 따른 많은 고려 사항과 결과에 대해 완전히 준비되지 않았을 수 있습니다. 설문 조사에 참여한 임원 중 79%가 전사적 AI 접근 방식에서 AI 윤리의 중요성을 강조한 반면, AI 윤리의 공통 원칙을 운영화한 비율은 25% 미만이었습니다. IBM 기업가치연구소 연구에 따르면.

이러한 불일치는 정책만으로는 디지털 도구의 보급과 사용 증가를 제거할 수 없기 때문에 존재합니다. 적절한 승인 없이 ChatGPT 또는 기타 블랙박스 공개 모델과 같은 스마트 장치 및 앱을 사용하는 근로자의 증가는 지속적인 문제가 되었으며 근로자에게 관련 위험을 알리는 올바른 변경 관리가 포함되어 있지 않습니다. 

예를 들어, 직원은 이러한 도구를 사용하여 민감한 고객 데이터를 사용하여 고객에게 이메일을 보낼 수 있고, 관리자는 이를 사용하여 개인 직원 데이터를 공개하는 성과 리뷰를 작성할 수 있습니다. 

이러한 위험을 줄이는 데 도움이 되도록 각 부서, 사업부 및 기능 수준 내에 책임 있는 AI 실무 중심 지점이나 옹호자를 포함시키는 것이 유용할 수 있습니다. 이 사례는 HR이 잠재적인 윤리적 문제와 운영 위험을 방지하기 위한 노력을 추진하고 옹호할 수 있는 기회가 될 수 있습니다.

궁극적으로, 책임있는 AI 회사의 더 넓은 가치와 비즈니스 전략에 부합하고 모든 직원에게 전달되는 공통 가치와 원칙을 갖춘 전략이 필수적입니다. 이 전략은 직원을 옹호하고 조직이 비즈니스 목표를 달성하는 AI와 혁신을 수용할 수 있는 기회를 식별해야 합니다. 또한 직원들에게 해로운 AI 영향을 방지하고, 잘못된 정보와 편견을 해결하며, 내부적으로나 사회 내에서 책임감 있는 AI를 장려하는 데 도움이 되는 교육을 지원해야 합니다.

책임 있는 AI 채택을 위한 3가지 고려 사항

비즈니스 및 HR 리더가 책임감 있는 AI 전략을 개발할 때 명심해야 할 3가지 주요 고려 사항은 다음과 같습니다.

사람을 전략의 중심으로 삼으세요

달리 말하면, 첨단 기술 전략을 계획할 때 인력의 우선순위를 정하십시오. 이는 AI가 직원과 어떻게 협력하는지 파악하고, AI가 직원의 역할 수행에 어떻게 도움이 되는지 구체적으로 전달하고 업무 방식을 재정의하는 것을 의미합니다. 교육이 없으면 직원은 자신을 대체하거나 인력을 제거하기 위해 AI가 배포되는 것에 대해 지나치게 걱정할 수 있습니다. 이러한 모델이 어떻게 구축되는지 직원들과 솔직하게 직접 소통하세요. HR 리더는 잠재적인 직업 변화뿐 아니라 AI와 기타 기술로 인해 창출된 새로운 범주와 직업의 현실도 다루어야 합니다.

채택된 기술과 기업을 모두 고려하는 거버넌스 활성화

AI는 단일체가 아니다. 조직은 이를 다양한 방법으로 배포할 수 있으므로 책임 있는 AI가 자신에게 어떤 의미인지, 이를 어떻게 사용할 계획인지, 어떻게 사용하지 않을 것인지를 명확하게 정의해야 합니다. 투명성, 신뢰, 형평성, 공정성, 견고성 및 다양한 팀의 활용과 같은 원칙은 OECD 또는 RAII 지침에 따라 생성 AI의 포함 여부에 관계없이 각 AI 사용 사례 내에서 고려되고 설계되어야 합니다. 또한 각 모델에 대해 모델 드리프트 및 개인 정보 보호 조치에 대한 일상적인 검토를 수행하고 편향 완화를 위한 특정 다양성, 형평성 및 포용 지표를 수행해야 합니다.

작업에 필요한 올바른 기술과 도구를 식별하고 조정합니다.

현실은 일부 직원이 질문에 답하고, 이메일 초안을 작성하고, 기타 일상적인 작업을 수행하는 데 도움이 되는 생성 AI 도구를 이미 실험하고 있다는 것입니다. 따라서 조직은 이러한 도구 사용 계획을 즉시 전달하고, 도구를 사용하는 직원에 대한 기대치를 설정하고, 이러한 도구의 사용이 조직의 가치 및 윤리에 부합하도록 지원해야 합니다. 또한 조직은 직원들이 AI 지식을 향상시키고 잠재적인 진로를 이해할 수 있도록 기술 개발 기회를 제공해야 합니다.

조직에서 책임감 있게 AI를 채택하는 방법에 대한 자세한 지침을 보려면 "제너레이티브 AI에서 가치 창출" 백서를 다운로드하세요.

성공적인 AI 도입을 위해서는 책임감 있는 AI를 실행하고 조직에 통합하는 것이 필수적입니다. IBM은 책임 있는 AI를 AI 접근 방식의 중심으로 삼았습니다. 고객 및 파트너와 함께. 2018년 IBM은 윤리적이고 책임감 있고 신뢰할 수 있는 AI 문화를 지원하기 위해 중앙의 다분야 기관으로 AI 윤리 위원회를 설립했습니다. 연구, 사업부, 인사, 다양성 및 포용, 법률, 정부 및 규제 업무, 조달 및 커뮤니케이션 등 다양한 부서의 고위 리더들로 구성됩니다. 이사회는 AI 관련 이니셔티브와 결정을 지시하고 집행합니다. IBM은 AI의 이점과 과제를 진지하게 받아들이고 우리가 하는 모든 일에 책임을 부여합니다.

나는 아버지에게 이 깨진 문법 규칙 하나를 허락하겠습니다. AI는 많은 인간, 가드레일, 감독, 거버넌스 및 AI 윤리 프레임워크의 참여를 통해 올바르게 관리되면 "좋은 일을 할" 수 있습니다. 

책임감 있는 AI 채택을 위해 비즈니스를 준비하는 방법에 대한 웹 세미나를 시청하세요.

IBM이 고객의 인재 혁신 여정을 어떻게 지원하는지 살펴보세요.

이 글이 도움 되었나요?

가능아니


인공 지능에 대해 자세히 알아보기




AI에서 다양성의 중요성은 의견이 아니라 수학입니다

5 분 읽기 - 우리 모두는 이상적인 인간 가치가 기술에 반영되는 것을 보고 싶어합니다. 우리는 인공지능(AI)과 같은 기술이 우리에게 거짓말을 하지 않고, 차별하지 않고, 우리와 우리 아이들이 안전하게 사용할 수 있기를 기대합니다. 그러나 많은 AI 제작자는 현재 모델에 노출된 편견, 부정확성 및 문제가 있는 데이터 관행으로 인해 반발에 직면하고 있습니다. 이러한 문제에는 기술, 알고리즘 또는 AI 기반 솔루션 이상이 필요합니다. 실제로는 전체론적이고 사회기술적인 접근 방식이 필요합니다.…




보험 회사가 IBM과 협력하여 생성적 AI 기반 솔루션을 구현하는 방법

7 분 읽기 - IBM은 다양한 분야에서 보험 고객과 협력하고 있으며 IBM 기업 가치 연구소(IBV)의 데이터는 보험사 관리 결정을 안내하는 세 가지 주요 필수 사항을 확인했습니다. 보험사가 신제품을 제공하고 수익 성장을 촉진하며 고객을 개선할 수 있도록 디지털 혁신을 채택합니다. 경험. 비용을 절감하면서 핵심 생산성(비즈니스 및 IT)을 향상시킵니다. 안전한 하이브리드 클라우드와 AI를 활용하여 점진적인 애플리케이션과 데이터 현대화를 수용합니다. 보험사는 조직의 변화를 촉진하기 위해 다음과 같은 핵심 과제를 충족해야 합니다.




챗봇의 힘 활용: 기업과 고객을 위한 주요 이점

6 분 읽기 - 챗봇은 오디오 입력, 텍스트 입력 또는 둘의 조합을 사용하는 요청에 즉각적으로 응답하여 사람의 개입이나 수동 조사가 필요하지 않도록 하여 고객과 잠재 클라이언트가 정보를 빠르게 찾거나 입력하도록 도울 수 있습니다. 챗봇은 어디에나 있으며 고객 관리 지원을 제공하고 집에서 스마트 스피커, SMS, WhatsApp, Facebook 메신저, Slack 및 기타 다양한 애플리케이션을 사용하는 직원을 지원합니다. 지능형 가상 비서 또는 가상 에이전트라고도 알려진 최신 인공 지능(AI) 챗봇은...




비즈니스용 AI의 최전선에 참여하세요: Think 2024

<1 분 읽기 - AI를 사용하여 비즈니스의 생산성과 혁신을 가속화하고 싶습니다. 실험을 넘어 규모를 확장해야 합니다. 빨리 움직여야 합니다. 이동 중 어디에 있든 비즈니스 여정을 위한 AI를 안내할 독특하고 매력적인 경험인 Think 2024를 보스턴에서 만나보세요. 사려 깊은 하이브리드 클라우드 접근 방식을 통해 AI 준비 상태를 구축하는 것부터 핵심 비즈니스 기능과 업계 요구 사항에 걸쳐 AI를 확장하고 AI를 애플리케이션에 내장하는 것까지...

IBM 뉴스레터

새로운 트렌드에 대한 최신 사고 리더십과 통찰력을 제공하는 뉴스레터와 주제 업데이트를 받아보세요.

지금 가입

더 많은 뉴스 레터

타임 스탬프 :

더보기 IBM IoT