การวิเคราะห์เชิงเทคนิค
รากฐานทางเทคนิคของขบวนการจริยธรรมนี้มีความสำคัญไม่แพ้ข้อโต้แย้งทางศีลธรรม นักพัฒนาไม่ได้เพียงแค่ลงนามในคำร้อง แต่พวกเขากำลังออกแบบข้อจำกัดลงไปในงานของพวกเขาโดยตรง ซึ่งปรากฏในกลยุทธ์ทางเทคนิคสำคัญหลายประการ ประการแรก มีแนวปฏิบัติที่เพิ่มขึ้นในการแนบใบอนุญาตที่มีข้อจำกัดเข้ากับโมเดลโอเพนซอร์ส เฟรมเวิร์ก และชุดข้อมูล ใบอนุญาตเหล่านี้ เช่น สัญญาอนุพันธ์ของตระกูล RAIL (Responsible AI Licenses) จะห้ามการใช้ในกิจกรรมที่ละเมิดสิทธิมนุษยชนหรือในการประยุกต์ใช้ทางทหารอย่างชัดเจน สิ่งนี้สร้างอุปสรรคทางกฎหมายและทางเทคนิค ณ จุดที่นำโค้ดไปใช้
ประการที่สอง สถาปัตยกรรมของระบบเอเจนท์และเฟรมเวิร์กมัลติเอเจนท์กำลังถูกตรวจสอบอย่างละเอียดถึงศักยภาพ 'การใช้สองทาง' (dual-use) ปัจจุบันนักพัฒนากำลังออกแบบโดยยึดหลัก 'value-by-design' โดยไม่เพียงพิจารณาถึงการทำงาน แต่ยังรวมถึงความสะดวกที่ระบบอาจถูกปรับใช้เพื่อจุดประสงค์ที่เป็นอันตราย ซึ่งอาจเกี่ยวข้องกับการสร้างเส้นทางการตรวจสอบ (audit trails), สวิตช์หยุดฉุกเฉิน (kill switches) หรือความตระหนักรู้ในบริบท (context-awareness) ที่ทำให้การปรับใช้ในสภาพแวดล้อมที่มีความเสี่ยงสูงและไม่มีโครงสร้าง เช่น สนามรบ เป็นเรื่องที่ทำได้ไม่ง่ายนักทางเทคนิคหรือสามารถตรวจจับได้
ประการที่สาม ขบวนการนี้ใช้ประโยชน์จากการพึ่งพาอย่างยิ่งของ AI สมัยใหม่บนระบบนิเวศแบบเปิดที่ต้องทำงานร่วมกัน ด้วยการสร้างบรรทัดฐานทางสังคมที่แข็งแกร่งและการปฏิเสธที่จะร่วมมือในโครงการบางอย่าง พวกเขาสามารถทำให้โครงการที่มีข้อถกเถียงขาดแคลนบุคลากรที่ดีที่สุดและเครื่องมือที่สร้างสรรค์ที่สุด อำนาจการเป็นผู้คุมประตูของชุมชนเทคนิคในการแบ่งปันความรู้—ผ่านที่เก็บโค้ด (code repositories) การตรวจสอบบทความวิจัย และการนำเสนอในที่ประชุม—กลายเป็นรูปแบบหนึ่งของการกำกับดูแลแบบอ่อน (soft governance) ที่มีประสิทธิภาพ ข้อโต้แย้งทางเทคนิคคือ AI ที่ปลอดภัยและสอดคล้องกับมนุษย์อย่างแท้จริงไม่สามารถสร้างขึ้นได้หากส่วนประกอบพื้นฐานของมันมีเป้าหมายเพื่อการทำลายล้าง สร้างความไม่ลงรอยกันโดยพื้นฐานระหว่างงานวิจัยล้ำสมัยด้านการทำให้ AI สอดคล้องกับมนุษย์ (alignment research) กับการพัฒนาอาวุธ
ผลกระทบต่ออุตสาหกรรม
ผลกระทบทางการค้าของความเห็นแย้งภายในนี้เริ่มเป็นที่รับรู้แล้ว บริษัทลงทุนเสี่ยงภัย โดยเฉพาะที่มุ่งเน้น AI ขั้นเริ่มต้น (early-stage) ขณะนี้ต้องเผชิญกับคำถามในการตรวจสอบขั้นตอน (due diligence) เกี่ยวกับนโยบายจริยธรรมของบริษัทในพอร์ตโฟลิโอและสัญญากับหน่วยงานกลาโหมที่เป็นไปได้ สตาร์ทอัปที่ก่อตั้งโดยนักวิจัยที่มีมุมมองสันติภาพนิยมหรือมีข้อจำกัดที่แข็งกร้ออาจดึงดูดกลุ่มคน talent เฉพาะกลุ่ม แต่ก็อาจพบว่าตนเองถูกกีดกันจากแหล่งเงินทุนสำคัญของรัฐบาลและส่วนใหญ่ของตลาดองค์กร
สิ่งนี้กำลังบังคับให้บริษัท AI ต้องตัดสินใจเชิงกลยุทธ์ อุตสาหกรรมอาจแบ่งออกเป็นสองค่ายใหญ่ ค่ายแรกยึดถือ 'ความเป็นกลางทางเทคโนโลยี' (technology neutrality) โดยวางตำแหน่งตนเองเป็นผู้ให้ขีดความสามารถล้วนๆ บริษัทเหล่านี้มีแนวโน้มจะกลายเป็นซัพพลายเออร์ที่ entrenched ให้กับภาคกลาโหมและความมั่นคงแห่งชาติ โดยให้เหตุผลว่าบทบาทของพวกเขาคือการจัดหาอุปกรณ์ ไม่ใช่การกำหนดนโยบาย การเติบโตของพวกเขาอาจได้รับแรงผลักดันจากสัญญาของรัฐบาล แต่ก็อาจเผชิญกับความท้าทายในการสรรหาบุคลากรและความเสี่ยงด้านภาพลักษณ์ต่อสาธารณะอย่างต่อเนื่อง
ค่ายที่สองจะสร้างแบรนด์รอบๆ แนวคิด 'มีจริยธรรมโดยการออกแบบ' (ethical by design) หรือ 'AI ที่มีมนุษย์เป็นศูนย์กลาง' (human-centric AI) ระบบนิเวศนี้จะนำเสนอการยับยั้งชั่งใจของตนเป็นคุณลักษณะ ไม่ใช่ข้อบกพร่อง