ปัญญาประดิษฐ์เป็นความรับผิดชอบ

ปัญญาประดิษฐ์เป็นความรับผิดชอบ

โหนดต้นทาง: 3029233

Comment ปัญญาประดิษฐ์ หมายถึงโมเดลพื้นฐานขนาดใหญ่ที่ทำนายข้อความและสามารถจัดหมวดหมู่รูปภาพและคำพูดได้ ดูเหมือนเป็นหนี้สินมากกว่าสินทรัพย์

จนถึงตอนนี้ค่าเสียหายของเงินดอลลาร์ยังน้อยอยู่ ในปี 2019 คนขับ Tesla คนหนึ่งซึ่งควบคุมรถของเขาโดยได้รับความช่วยเหลือจากซอฟต์แวร์ Autopilot ของผู้ผลิตรถยนต์รายนี้ได้ฝ่าไฟแดงและชนรถคันอื่น ผู้โดยสารเสียชีวิตและผู้ขับขี่รถยนต์ Tesla เมื่อสัปดาห์ที่แล้วคือ สั่งซื้อ เพื่อชดใช้ค่าสินไหมทดแทนจำนวน 23,000 ดอลลาร์

เทสลาออกในเวลาเดียวกัน การเรียกคืน รถยนต์สองล้านคันเพื่อแก้ไขซอฟต์แวร์ Autopilot เพื่อตอบสนองต่อการตรวจสอบของหน่วยงานความปลอดภัยการจราจรบนทางหลวงแห่งชาติของสหรัฐอเมริกา (NHTSA) ที่พบว่าขาดการควบคุมความปลอดภัยของ Autopilot

เงินสองหมื่นสามพันดอลลาร์นั้นไม่มากสำหรับสองชีวิต แต่ครอบครัวที่เกี่ยวข้องกำลังฟ้องร้องทางแพ่งต่อคนขับและต่อ Tesla ดังนั้นค่าใช้จ่ายจึงอาจสูงขึ้น และมีการกล่าวกันว่าเป็นอย่างน้อย คดีหลายสิบคดี ที่เกี่ยวข้องกับระบบอัตโนมัติในสหรัฐอเมริกา

ขณะเดียวกันในอุตสาหกรรมการดูแลสุขภาพ UnitedHealthcare กำลังถูกฟ้อง เนื่องจากโมเดล nH Predict AI ที่ได้รับจากการซื้อ Navihealth ในปี 2020 ถูกกล่าวหาว่าปฏิเสธการดูแลผู้สูงอายุที่มีประกันหลังเฉียบพลันที่จำเป็น

จำเป็นต้องมีเครื่องพันธนาการ

บริษัทที่ขายโมเดลและบริการ AI เข้าใจอย่างชัดเจนว่ามีปัญหาเกิดขึ้น พวกเขาหมายถึง "ราวกั้น" ที่ติดตั้งไว้รอบๆ โมเดลพื้นฐานเพื่อช่วยให้พวกเขาอยู่ในเลนของพวกเขา แม้ว่าจะเป็นเช่นนั้นก็ตาม ไม่ทำงาน ดีมาก. ข้อควรระวังประเภทนี้จะไม่จำเป็นหากไม่มีโมเดลเหล่านี้ สื่อล่วงละเมิดทางเพศเด็ก และเนื้อหาที่เป็นพิษอื่นๆ มากมาย

เหมือนกับว่านักพัฒนา AI อ่านผลงานของนักเขียน Alex Blechman โพสต์ไวรัล เกี่ยวกับบริษัทเทคโนโลยีที่ตีความเรื่องราวเตือน "อย่าสร้าง Nexus แห่งความทรมาน" เป็นแผนงานผลิตภัณฑ์ และกล่าวว่า "ดูดีสำหรับฉัน"

แน่นอนว่ามีการอ้างอิงวรรณกรรมเก่าๆ ที่เหมาะกับ AI เช่น Frankenstein ของ Mary Shelley หรือ Pandora's Box ซึ่งเหมาะสมอย่างยิ่งเนื่องจากโมเดล AI มักถูกเรียกว่ากล่องดำเนื่องจากขาดความโปร่งใสเกี่ยวกับสื่อการฝึกอบรม

จนถึงตอนนี้ ความไม่ชัดเจนของโมเดลเชิงพาณิชย์ที่เต็มไปด้วยเนื้อหาที่เป็นอันตรายไม่ได้ส่งผลกระทบใดๆ ต่อธุรกิจมากนัก มีล่าสุด ข้อเรียกร้อง โดย Chris Bakke ผู้ก่อตั้งและซีอีโอของ Laskie (ได้มาในปีนี้โดยบริษัทที่เรียกตัวเองว่า X) ว่าแชทบอทของ GM ที่ใช้โดยวัตสันวิลล์ แคลิฟอร์เนีย ตัวแทนจำหน่ายรถยนต์ได้รับการพูดคุยเพื่อตกลงขาย Chevy Tahoe ปี 2024 ราคา $ 1 ด้วยความรวดเร็วทางวิศวกรรมเล็กน้อย แต่ตัวแทนจำหน่ายไม่น่าจะปฏิบัติตามคำมั่นสัญญาดังกล่าวได้

อย่างไรก็ตาม ความเสี่ยงในการพึ่งพาโมเดล AI ก็เพียงพอแล้ว Google, ไมโครซอฟท์และ มานุษยวิทยา ได้เสนอที่จะชดใช้ค่าเสียหายให้กับลูกค้าจากการเรียกร้องลิขสิทธิ์ (ซึ่งมีจำนวนมากและยังไม่ได้รับการแก้ไขส่วนใหญ่) นั่นไม่ใช่สิ่งที่คุณทำเว้นแต่จะมีโอกาสที่จะต้องรับผิด

การควบคุม

เจ้าหน้าที่ยังคงพยายามคิดว่าควรประเมินความรับผิดของ AI อย่างไร พิจารณาว่าคณะกรรมาธิการยุโรปวางกรอบประเด็นนี้อย่างไรขณะดำเนินการเพื่อกำหนดกรอบทางกฎหมายที่ใช้การได้สำหรับปัญญาประดิษฐ์:

“กฎความรับผิดในปัจจุบัน โดยเฉพาะอย่างยิ่งกฎระดับชาติเกี่ยวกับความผิด ไม่ได้ถูกปรับใช้เพื่อจัดการกับการเรียกร้องค่าชดเชยสำหรับอันตรายที่เกิดจากผลิตภัณฑ์/บริการที่เปิดใช้งาน AI” คณะกรรมาธิการ กล่าวว่า [PDF] ปีที่แล้ว “ภายใต้กฎดังกล่าว ผู้เสียหายจำเป็นต้องพิสูจน์การกระทำ/การละเว้นโดยมิชอบของบุคคลที่ก่อให้เกิดความเสียหาย ลักษณะเฉพาะของ AI รวมถึงความเป็นอิสระและความทึบแสง (ที่เรียกว่าเอฟเฟกต์ 'กล่องดำ') ทำให้ยากหรือมีราคาแพงมากในการระบุผู้รับผิดชอบและพิสูจน์ข้อกำหนดสำหรับการเรียกร้องความรับผิดชอบที่ประสบความสำเร็จ”

และผู้ร่างกฎหมายของสหรัฐอเมริกาก็มี เสนอ กรอบการทำงาน AI ของพรรคสองฝ่ายเพื่อ “ให้แน่ใจว่าบริษัท AI จะต้องรับผิดผ่านการบังคับใช้หน่วยงานกำกับดูแลและสิทธิส่วนบุคคลในการดำเนินการ เมื่อแบบจำลองและระบบของพวกเขาละเมิดความเป็นส่วนตัว ละเมิดสิทธิพลเมือง หรือก่อให้เกิดอันตรายที่รับรู้ได้”

อย่าตื่นเต้นเกินไปที่จะเห็นผู้บริหารบริษัท AI หลังลูกกรง: การมีส่วนร่วมของผู้นำอุตสาหกรรม AI ในกระบวนการนี้ชี้ให้เห็นว่ากฎใดๆ ที่เกิดขึ้นจะมีประสิทธิภาพพอๆ กับกรอบการกำกับดูแลอื่นๆ ที่ถูกผู้ทำการแนะนำชักชวนสมาชิกรัฐสภาถูกทำลาย

แต่ความตื่นเต้นเป็นส่วนหนึ่งของปัญหา: มีการพูดถึงนกแก้วสุ่มอย่างมาก ดังที่เรียกแบบจำลอง AI

โมเดล AI มีคุณค่าที่แท้จริงในบางบริบท ดังที่ระบุไว้โดยบริษัทรักษาความปลอดภัย Socket ซึ่งใช้ ChatGPT ช่วยธง ช่องโหว่ของซอฟต์แวร์ พวกเขาสร้างความมหัศจรรย์ในการรู้จำเสียงพูด การแปล และการจดจำรูปภาพ ส่งผลเสียต่อผู้ถอดเสียงและปริศนา CAPTCHA พวกเขาเตือนผู้คร่ำหวอดในอุตสาหกรรมถึงความสนุกในการเล่น เอลิซ่า, แชทบอทยุคแรกๆ ดูเหมือนว่าพวกเขาจะมีประโยชน์จริงในงานสนับสนุนการตัดสินใจ หากมีมนุษย์อยู่ในวง และพวกเขาได้ใช้บรรทัดคำสั่งที่ซับซ้อน พร้อมด้วยแฟล็กและพารามิเตอร์ต่างๆ และเปลี่ยนให้เป็นข้อความแจ้งที่ซับซ้อนพอๆ กัน ซึ่งสามารถดำเนินการต่อสำหรับย่อหน้าได้

แต่ระบบอัตโนมัติที่เปิดใช้งานโดย AI มีค่าใช้จ่าย ในระยะหลังนี้ บทความ สำหรับนิตยสารการค้าไซไฟ Locus ผู้เขียนและนักเคลื่อนไหว Cory Doctorow แย้งว่า “บริษัท AI กำลังเดิมพันโดยปริยายว่าลูกค้าของพวกเขาจะซื้อ AI สำหรับระบบอัตโนมัติที่มีผลกระทบสูง พนักงานดับเพลิง และก่อให้เกิดอันตรายต่อร่างกาย จิตใจ และเศรษฐกิจต่อลูกค้าของพวกเขาเอง เพื่อหลีกเลี่ยงความรับผิดต่ออันตรายเหล่านี้”

Doctorow สงสัยว่าบริการ AI ในธุรกิจที่มีมูลค่าสูงจะมีตลาดที่มีความหมาย เนื่องจากความเสี่ยงดังกล่าว และเชื่อว่าเรากำลังอยู่ใน ฟองอากาศเอไอ. เขาชี้ไปที่ GM Cruise เป็นตัวอย่าง โดยสังเกตว่ารูปแบบธุรกิจของบริษัทรถยนต์ไร้คนขับ – ในบริเวณขอบรก เนื่องจากการบาดเจ็บของคนเดินเท้าและการเรียกคืน - เทียบเท่ากับการแทนที่คนขับที่ได้รับค่าจ้างต่ำแต่ละคนด้วยผู้ดูแลทางไกลที่มีราคาแพงกว่า 1.5 คน โดยไม่ตัดโอกาสที่จะเกิดอุบัติเหตุและการฟ้องร้องที่เกี่ยวข้อง

เกินพิกัด

อย่างน้อยก็มีศักยภาพสำหรับธุรกิจมูลค่าต่ำที่เกี่ยวข้องกับ AI สิ่งเหล่านี้เกี่ยวข้องกับการจ่ายเงินรายเดือนเพื่อเข้าถึง API สำหรับการแชทที่ไม่ถูกต้อง การสร้างภาพอัลกอริทึมที่ร่วมเลือกสไตล์ของศิลปินโดยไม่ได้รับอนุญาต หรือ สร้างหลายร้อย ของเว็บไซต์ข่าวปลอม (หรือ หนังสือ) ในลักษณะที่ว่า “น้ำท่วมโซน” ด้วยข้อมูลที่ไม่ถูกต้อง

ดูเหมือนว่าไม่น่าจะเป็นไปได้ที่ Arena Group ข้อเรียกร้อง ว่าแพลตฟอร์ม AI สามารถลดเวลาที่ต้องใช้ในการสร้างบทความสำหรับสิ่งพิมพ์เช่น Sports Illustrated ได้ถึง 80-90 เปอร์เซ็นต์ จะช่วยปรับปรุงความพึงพอใจของผู้อ่าน ความภักดีต่อแบรนด์ หรือคุณภาพของเนื้อหา แต่บางทีการสร้างบทความมากกว่าที่มนุษย์จะเป็นไปได้จากชื่อหลายร้อยรายการของบริษัท อาจนำไปสู่การดูหน้าเว็บมากขึ้นโดยบอท และรายได้จากโฆษณาแบบเป็นโปรแกรมมากขึ้นจากผู้ซื้อโฆษณาที่ไร้เดียงสาเกินกว่าจะเข้าใจได้

ส่วนหนึ่งของปัญหาคือผู้สนับสนุน AI หลัก – Amazon, Google, Nvidia และ Microsoft – ใช้งานแพลตฟอร์มคลาวด์หรือขายฮาร์ดแวร์ GPU พวกเขาเป็นผู้ขายแบบเลือกและตักของยุคตื่นทองของ AI ที่ต้องการขายบริการคลาวด์หรือชุดอุปกรณ์กระทัดรัดตัวเลข พวกเขาทั้งหมดอยู่บนกระดานสำหรับ blockchain express และอำนาจสูงสุดของ cryptocurrency จนกระทั่งความหลงผิดนั้นหายไป

พวกเขากระตือรือร้นมากขึ้นในการช่วยให้บริษัทต่างๆ เรียกใช้ปริมาณงาน AI ไม่ว่าจะมีประโยชน์หรืออย่างอื่นก็ตาม พวกเขาเป็นเพียงการสร้างระบบคลาวด์โดยหวังว่าจะขับเคลื่อนธุรกิจไปสู่การดำเนินงานแบบเช่าโปรเซสเซอร์ ในทำนองเดียวกัน สตาร์ทอัพด้านการเรียนรู้ด้วยเครื่องจักรที่ไม่มีโครงสร้างพื้นฐาน หวังว่าการพูดคุยอย่างไพเราะเกี่ยวกับเทคโนโลยีการเปลี่ยนแปลงจะทำให้การประเมินมูลค่าของบริษัทสูงขึ้นเพื่อให้รางวัลแก่นักลงทุนในช่วงแรกๆ

ความคลั่งไคล้ด้าน AI ส่วนหนึ่งเป็นผลมาจากความพยายามอย่างไม่หยุดยั้งของอุตสาหกรรมเทคโนโลยีในการตอบคำถามว่า "อะไรจะเกิดขึ้นต่อไป" ในช่วงเวลาแห่งความชะงักงันเป็นเวลานาน Apple, Google, อเมซอน, Meta, ไมโครซอฟท์และ Nvidia ทุกคนพยายามอย่างเต็มที่เพื่อป้องกันการแข่งขันที่มีความหมาย และนับตั้งแต่เริ่มต้นยุคคลาวด์และอุปกรณ์เคลื่อนที่ในช่วงกลางทศวรรษ 2000 พวกเขาก็ทำได้ดีพอสมควร ไม่ใช่ว่าพฤติกรรมต่อต้านการแข่งขันจะเป็นเรื่องใหม่ แต่ให้นึกถึงอุตสาหกรรมในปี 2010 การตั้งถิ่นฐาน กับกระทรวงยุติธรรมของสหรัฐอเมริกาเกี่ยวกับข้อตกลงระหว่าง Adobe, Google, Intel, Intuit และ Pixar เพื่อหลีกเลี่ยงการแย่งชิงผู้มีความสามารถจากกันและกัน

Microsoft ทำการบูรณาการ AI เข้ากับ Bing เป็นจำนวนมาก ซึ่งถูกบดบังโดย Google Search มายาวนาน โดยอ้างว่าเป็น “การปฏิรูปการค้นหา” แต่ตั้งแต่นั้นมาก็ไม่มีอะไรเปลี่ยนแปลงมากนัก – Bing ตามข่าว ล้มเหลวในการแย่งส่วนแบ่งการตลาดจาก Google ในช่วงเวลาที่มีความรู้สึกอย่างกว้างขวางว่า Google Search ซึ่งขณะนี้เต็มไปด้วย AI นั้นเริ่มแย่ลง

นำมาในปี 2024

หากต้องการทราบว่าจะเกิดอะไรขึ้นต่อไป เราจะต้องรอให้กระทรวงยุติธรรมและหน่วยงานกำกับดูแลอื่น ๆ ในโลกบังคับการเปลี่ยนแปลง ต่อต้านการผูกขาด การบังคับใช้และการฟ้องร้อง เพราะในขณะที่ Google มีการล็อคการกระจายการค้นหา - ผ่านข้อตกลงกับ Apple และอื่น ๆ - และการโฆษณาดิจิทัล - ผ่านข้อตกลงกับ Meta (เคลียร์ในสหรัฐอเมริกา, ยัง ภายใต้การสอบสวน ในยุโรปและสหราชอาณาจักร) และกิจกรรมอื่นๆ นั้น ป่องๆ ผลประโยชน์ของกระทรวงยุติธรรม ทั้งธุรกิจการค้นหาและธุรกิจโฆษณาก็ดูไม่เหมาะกับผู้ท้าชิงรายใหม่ ไม่ว่าจะเพิ่มซอส AI เข้าไปมากแค่ไหนก็ตาม

AI เป็นความรับผิดชอบไม่เพียงแต่ในแง่การเงินเท่านั้น แต่ยังรวมถึงในแง่จริยธรรมด้วย สัญญาว่าจะประหยัดค่าจ้าง - แม้ว่า เป็นอย่างยิ่ง มีราคาแพงในแง่ของ การฝึกอบรมการพัฒนา และ ผลกระทบต่อสิ่งแวดล้อม – ในขณะที่ส่งเสริมการไม่แยแสต่อแรงงานมนุษย์ ทรัพย์สินทางปัญญา ผลลัพธ์ที่เป็นอันตราย และความถูกต้องของข้อมูล AI เชิญชวนบริษัทต่างๆ ให้ลบบุคลากรออกจากสมการ เมื่อพวกเขามักจะเพิ่มมูลค่าที่ไม่ชัดเจนจากงบดุล

มีพื้นที่ให้ AI มีประโยชน์อย่างแท้จริง แต่จำเป็นต้องปรับใช้เพื่อช่วยเหลือผู้คน แทนที่จะกำจัดพวกเขาทิ้งไป ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน