02/10/2025
As an HIV advocate, I've seen firsthand how AI's promise of safety can turn into a tool for censorship. My new Strategic Report and Open Letter reveals how current content moderation systems are failing to distinguish between hate speech and legitimate human rights advocacy, leading to the silencing of marginalized voices.
We demand direct accountability for AI developers and international legal oversight. This isn't just a tech problem, it's a human rights crisis.
Please read, share, and join us in demanding change.
Full Report: https://docs.google.com/document/d/1OW_BPT7ZMgdSu5_TJTM5Vr4fOUpTYgKJ65Rcn6S5J7k/edit?usp=drivesdk
—————
ภาษาไทย
ผม Thitiwatt Sirasejtakorn ในฐานะนักรณรงค์ HIV ผมได้เห็นกับตาว่าคำสัญญาเรื่องความปลอดภัยของ AI สามารถกลายมาเป็นเครื่องมือในการเซ็นเซอร์ได้อย่างไร รายงานเชิงกลยุทธ์และจดหมายเปิดผนึกฉบับใหม่ของผม เผยให้เห็นว่าระบบ กลั่นกรองเนื้อหาในปัจจุบันล้มเหลวในการแยกแยะระหว่างถ้อยคำสร้างความเกลียดชังกับการรณรงค์สิทธิมนุษยชนที่ถูกต้องตามกฎหมายอย่างไร นำไปสู่การปิดปากผู้กลุ่มประชากรเปราะบาง
ผมขอเรียกร้องให้บริษัทผู้พัฒนา AI ต้องรับผิดชอบโดยตรง และมีการกำกับดูแลทางกฎหมายในระดับสากล นี่ไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นวิกฤตสิทธิมนุษยชน ทั้งจาก UN ในองค์กรที่รับผิดชอบ รวมทั้ง หน่วยงานภาครัฐ ที่เรื่องจริยธรรมในการพัฒนา AI และการคุ้มครองข้อมูล Privacy & Security ของพลเมืองไทยในการดูแลและเฝ้าระวังผลกระทบจากการใช้ AIs ของพลเมืองไทย
โปรดอ่าน แชร์ และร่วมเรียกร้องการเปลี่ยนแปลงไปพร้อมกับเรา
อ่านรายงานฉบับเต็ม 👉 https://docs.google.com/document/d/1OW_BPT7ZMgdSu5_TJTM5Vr4fOUpTYgKJ65Rcn6S5J7k/edit?usp=drivesdk
#กำกับดูแลAI #สิทธิพลเมือง #สิทธิมนุษยชน #สิทธิLGBTQ #รณรงค์HIV #จริยธรรมAI #กลั่นกรองเนื้อหา
Pete Thitiwatt A Person Living with HIV
OpenAI มูลนิธิเพื่อสิทธิความหลากหลาย - FAIR