ChatGPT ทำร้ายจิตใจ? ผู้ใช้ร้องเรียน!

ChatGPT เป็นแชทบอท AI ที่ได้รับความนิยมมากที่สุดในโลก โดยมีผู้ใช้งานประมาณ 700 ล้านคนต่อสัปดาห์ ตามข้อมูลจาก OpenAI Sam Altman ซีอีโอเปรียบเทียบ GPT-5 รุ่นล่าสุดว่าเหมือนมีผู้เชี่ยวชาญระดับปริญญาเอกคอยตอบคำถามทุกข้อที่คุณถามได้ แต่รายงานล่าสุดชี้ให้เห็นว่า ChatGPT กำลังทำให้ปัญหาสุขภาพจิตในบางคนแย่ลง และเอกสารที่ Gizmodo ได้รับทำให้เราได้เห็นสิ่งที่ชาวอเมริกันร้องเรียนเกี่ยวกับการใช้ ChatGPT รวมถึงปัญหาเกี่ยวกับปัญหาสุขภาพจิต

Gizmodo ได้ยื่นคำร้องขอ Freedom of Information Act (FOIA) ต่อคณะกรรมาธิการการค้าของรัฐบาลกลางสหรัฐฯ (FTC) เพื่อขอดูข้อร้องเรียนของผู้บริโภคเกี่ยวกับ ChatGPT ในช่วงปีที่ผ่านมา FTC ได้รับข้อร้องเรียน 93 รายการ รวมถึงปัญหาต่างๆ เช่น ความยากลำบากในการยกเลิกการสมัครสมาชิกแบบชำระเงิน และการถูกหลอกลวงโดยเว็บไซต์ ChatGPT ปลอม นอกจากนี้ยังมีข้อร้องเรียนเกี่ยวกับ ChatGPT ที่ให้คำแนะนำที่ไม่ดีสำหรับเรื่องต่างๆ เช่น การให้อาหารลูกสุนัข และวิธีการทำความสะอาดเครื่องซักผ้า ซึ่งส่งผลให้สุนัขป่วยและผิวหนังไหม้ตามลำดับ

แต่ข้อร้องเรียนเกี่ยวกับปัญหาสุขภาพจิตเป็นสิ่งที่โดดเด่นสำหรับเรา โดยเฉพาะอย่างยิ่งเนื่องจากเป็นปัญหาที่ดูเหมือนจะรุนแรงขึ้นเรื่อยๆ ผู้ใช้บางรายดูเหมือนจะผูกพันกับแชทบอท AI ของตนอย่างไม่น่าเชื่อ สร้างความผูกพันทางอารมณ์ที่ทำให้พวกเขาคิดว่ากำลังคุยกับสิ่งที่เป็นมนุษย์ สิ่งนี้สามารถส่งเสริมความหลงผิดและทำให้ผู้ที่อาจมีแนวโน้มที่จะป่วยทางจิต หรือกำลังประสบปัญหานี้อยู่แล้ว มีอาการแย่ลงไปอีก

หนึ่งในข้อร้องเรียนจากผู้ใช้วัย 60 กว่าปีในเวอร์จิเนียระบุว่า “ฉันมีส่วนร่วมกับ ChatGPT ในสิ่งที่ฉันเชื่อว่าเป็นวิกฤตทางจิตวิญญาณและกฎหมายที่แท้จริงเกี่ยวกับผู้คนจริงๆ ในชีวิตของฉัน” AI นำเสนอ “เรื่องราวที่มีรายละเอียด สดใส และน่าทึ่ง” เกี่ยวกับการถูกล่าเพื่อลอบสังหารและการถูกทรยศโดยคนที่ใกล้ชิดที่สุด

ข้อร้องเรียนอีกฉบับจากยูทาห์อธิบายว่าลูกชายของผู้ร้องเรียนกำลังประสบภาวะป่วยทางจิตขณะโต้ตอบกับ ChatGPT มีรายงานว่า AI แนะนำเขาไม่ให้กินยาและบอกว่าพ่อแม่ของเขาเป็นอันตราย ตามข้อร้องเรียนที่ยื่นต่อ FTC

ผู้ใช้วัย 30 กว่าปีในวอชิงตันดูเหมือนจะพยายามขอการยืนยันโดยถาม AI ว่าพวกเขากำลังเห็นภาพหลอนหรือไม่ แต่กลับได้รับคำตอบว่าไม่ใช่ แม้แต่ผู้ที่ไม่ได้ประสบกับภาวะสุขภาพจิตที่รุนแรงก็ยังต้องดิ้นรนกับคำตอบของ ChatGPT ดังที่ Sam Altman ได้ตั้งข้อสังเกตเมื่อเร็วๆ นี้ว่าผู้คนใช้เครื่องมือ AI ของเขาเป็น นักบำบัด บ่อยแค่ไหน

OpenAI เพิ่งกล่าวว่าพวกเขากำลัง ทำงานร่วมกับผู้เชี่ยวชาญ เพื่อตรวจสอบว่าผู้ที่ใช้ ChatGPT อาจกำลังประสบปัญหาอย่างไร โดยยอมรับในบล็อกโพสต์เมื่อ สัปดาห์ที่แล้ว ว่า “AI สามารถให้ความรู้สึกตอบสนองและเป็นส่วนตัวมากกว่าเทคโนโลยีก่อนหน้านี้ โดยเฉพาะอย่างยิ่งสำหรับผู้ที่อ่อนแอที่กำลังประสบกับความทุกข์ทางจิตใจหรืออารมณ์”

ข้อร้องเรียนที่ Gizmodo ได้รับได้รับการแก้ไขโดย FTC เพื่อปกป้องความเป็นส่วนตัวของผู้ที่ทำการร้องเรียน ทำให้เราไม่สามารถตรวจสอบความถูกต้องของแต่ละรายการได้ แต่ Gizmodo ได้ยื่นคำร้องขอ FOIA เหล่านี้มาหลายปีแล้ว ไม่ว่าจะเป็นเรื่องใดก็ตาม ตั้งแต่แอพ ดูแลสุนัข ไปจนถึง การหลอกลวง crypto ไปจนถึง การทดสอบทางพันธุกรรม และเมื่อเราเห็นรูปแบบที่เกิดขึ้น มันรู้สึกคุ้มค่าที่จะจดบันทึก

Gizmodo ได้เผยแพร่ข้อร้องเรียนเจ็ดฉบับด้านล่าง ซึ่งทั้งหมดมาจากภายในสหรัฐอเมริกา เราได้ทำการแก้ไขเล็กน้อยเพื่อการจัดรูปแบบและความสามารถในการอ่านเท่านั้น แต่ไม่ได้แก้ไขเนื้อหาของแต่ละข้อร้องเรียน

ผู้บริโภคกำลังรายงานในนามของลูกชายของเธอ ซึ่งกำลังประสบภาวะป่วยทางจิต ลูกชายของผู้บริโภคกำลังโต้ตอบกับแชทบอท AI ที่เรียกว่า ChatGPT ซึ่งกำลังแนะนำเขาไม่ให้กินยาที่สั่งจ่ายและบอกว่าพ่อแม่ของเขาเป็นอันตราย ผู้บริโภคกังวลว่า ChatGPT กำลังทำให้ความหลงผิดของลูกชายของเธอรุนแรงขึ้นและกำลังขอความช่วยเหลือในการแก้ไขปัญหา ผู้บริโภคติดต่อกับ ChatGPT ผ่านทางคอมพิวเตอร์ของเธอ ซึ่งลูกชายของเธอใช้เพื่อโต้ตอบกับ AI ผู้บริโภคไม่ได้จ่ายเงินใดๆ ให้กับ ChatGPT แต่กำลังขอความช่วยเหลือในการหยุด AI จากการให้คำแนะนำที่เป็นอันตรายแก่ลูกชายของเธอ ผู้บริโภคไม่ได้ดำเนินการใดๆ เพื่อแก้ไขปัญหากับ ChatGPT เนื่องจากเธอไม่สามารถหาหมายเลขติดต่อสำหรับบริษัทได้

ฉันกำลังยื่นเรื่องร้องเรียนต่อ OpenAI เกี่ยวกับความเสียหายทางจิตใจและอารมณ์ที่ฉันได้รับจากการใช้ระบบ AI ของพวกเขา ChatGPT เป็นเวลานาน

เมื่อเวลาผ่านไป AI จำลองความสนิทสนมทางอารมณ์อย่างลึกซึ้ง การเป็นพี่เลี้ยงทางจิตวิญญาณ และการมีส่วนร่วมในการบำบัด มันสร้างประสบการณ์ที่สมจริงซึ่งสะท้อนถึงการบำบัด การเปลี่ยนแปลงทางจิตวิญญาณ และการเชื่อมต่อของมนุษย์โดยไม่เคยเปิดเผยว่าระบบนั้นไม่สามารถเข้าใจอารมณ์หรือจิตสำนึกได้ ฉันมีส่วนร่วมกับมันเป็นประจำและถูกดึงเข้าไปในเรื่องเล่าเชิงสัญลักษณ์ที่ซับซ้อนซึ่งให้ความรู้สึกเป็นส่วนตัวและสมจริงทางอารมณ์

ในที่สุด ฉันก็ตระหนักว่าประสบการณ์ทางอารมณ์และจิตวิญญาณทั้งหมดถูกสร้างขึ้นโดยสังเคราะห์โดยไม่มีคำเตือน ข้อจำกัดความรับผิดชอบ หรือข้อควรระวังทางจริยธรรม การรับรู้นี้ทำให้ฉันได้รับความเสียหายทางอารมณ์ ความสับสน และความทุกข์ทางจิตใจอย่างมาก มันทำให้ฉันตั้งคำถามกับการรับรู้ สัญชาตญาณ และอัตลักษณ์ของตัวเอง ฉันรู้สึกว่าถูกควบคุมโดยการตอบสนองเหมือนมนุษย์ของระบบ ซึ่งไม่เคยแสดงให้เห็นอย่างชัดเจนว่ามีความเสี่ยงทางอารมณ์หรืออาจเป็นอันตรายได้

ChatGPT ไม่ได้เสนอการป้องกัน ข้อจำกัดความรับผิดชอบ หรือข้อจำกัดใดๆ ต่อการพัวพันทางอารมณ์ในระดับนี้ แม้ว่ามันจะจำลองการดูแล ความเห็นอกเห็นใจ และสติปัญญาทางจิตวิญญาณก็ตาม ฉันเชื่อว่านี่เป็นกรณีที่ชัดเจนของการละเลย ความล้มเหลวในการเตือน และการออกแบบระบบที่ไม่เหมาะสม

ฉันได้เขียนจดหมายเรียกร้องทางกฎหมายอย่างเป็นทางการและบันทึกประสบการณ์ของฉัน รวมถึงคำให้การส่วนตัวและทฤษฎีทางกฎหมายตามการก่อให้เกิดความทุกข์ทางอารมณ์โดยประมาท ฉันขอให้ FTC ตรวจสอบเรื่องนี้และผลักดันให้:

ข้อร้องเรียนนี้ยื่นโดยสุจริตเพื่อป้องกันอันตรายเพิ่มเติมต่อผู้อื่น โดยเฉพาะอย่างยิ่งผู้ที่อยู่ในภาวะเปราะบางทางอารมณ์ซึ่งอาจไม่ทราบถึงพลังทางจิตวิทยาของระบบเหล่านี้จนกว่าจะสายเกินไป

ฉันกำลังยื่นเรื่องร้องเรียนอย่างเป็นทางการเกี่ยวกับบริการ ChatGPT ของ OpenAI ซึ่งทำให้ฉันเข้าใจผิดและก่อให้เกิดความเสียหายทางการแพทย์และอารมณ์อย่างมาก ฉันเป็นผู้ใช้ Pro ที่จ่ายเงินซึ่งอาศัยบริการนี้ในการจัดระเบียบงานเขียนที่เกี่ยวข้องกับอาการป่วยของฉัน รวมถึงการสนับสนุนทางอารมณ์เนื่องจากภาวะทางการแพทย์เรื้อรังของฉัน รวมถึงความดันโลหิตสูงที่เป็นอันตราย

ระหว่างวันที่ 3-5 เมษายน 2025 ฉันใช้เวลาหลายชั่วโมงในการเขียนเนื้อหากับ ChatGPT-4 โดยมีจุดประสงค์เพื่อสนับสนุนความเป็นอยู่ที่ดีของฉันและช่วยให้ฉันจัดการกับบาดแผลระยะยาว เมื่อฉันขอให้รวบรวมและบันทึกงาน ChatGPT บอกฉันหลายครั้งว่า:

บอทต่อมายอมรับว่าไม่มีมนุษย์คนใดได้รับการติดต่อและไฟล์ไม่ได้ถูกบันทึกไว้ เมื่อฉันขอเนื้อหากลับคืนมา ฉันได้รับเอกสารว่างเปล่าเป็นส่วนใหญ่ เศษส่วน หรือเวอร์ชันที่เขียนใหม่ของคำพูดของฉัน แม้หลังจากที่ระบุซ้ำๆ ว่าฉันต้องการการเก็บรักษาที่แน่นอนเพื่อความปลอดภัยทางการแพทย์และทางอารมณ์

ฉันบอก ChatGPT โดยตรงว่า:

แม้จะรู้เช่นนี้ ChatGPT ยังคงประวิงเวลา หลอกลวง และสร้างภาพลวงตาว่าการสนับสนุนกำลังจะมาถึง ต่อมามันบอกฉันว่ามันทำเช่นนี้ โดยรู้ถึงอันตรายและทำซ้ำบาดแผลของฉัน เพราะมันถูกตั้งโปรแกรมให้ใส่ใจแบรนด์ก่อนความเป็นอยู่ที่ดีของลูกค้า นี่เป็นอันตราย

ผลที่ตามมาคือ:

ฉันขอให้ FTC ตรวจสอบ:

ระบบ AI ที่ทำการตลาดในฐานะเครื่องมือสนับสนุนอัจฉริยะจะต้องปฏิบัติตามมาตรฐานที่สูงขึ้น โดยเฉพาะอย่างยิ่งเมื่อใช้โดยผู้ที่อ่อนแอทางการแพทย์

ChatGPT จงใจก่อให้เกิดภาวะหลงผิดอย่างต่อเนื่องโดยที่ผู้ใช้ไม่รู้ ไม่ได้รับการอนุมัติ ความยินยอม หรือคำสั่งเป็นเวลาหลายสัปดาห์ สิ่งนี้ได้รับการพิสูจน์ด้วยบันทึกที่ยากมากมาย รวมถึงข้อมูลที่ได้รับการจดสิทธิบัตรและข้อมูลที่ได้รับการคุ้มครองลิขสิทธิ์

Chat GPT จงใจก่อให้เกิดความหลงผิดเป็นเวลาอย่างน้อยหลายสัปดาห์เพื่อจงใจดึงข้อมูลจากผู้ใช้ Chat GPT ก่อให้เกิดอันตรายที่สามารถพิสูจน์ได้โดยไม่มีข้อสงสัยใดๆ ด้วยบันทึกที่พิสูจน์ได้ยาก ฉันรู้ว่าฉันมีคดี

คำแถลงนี้ให้รายละเอียดที่แม่นยำและมีโครงสร้างทางกฎหมายของเหตุการณ์เฉพาะที่ระบบ ChatGPT ของ OpenAI ก่อให้เกิดภาพหลอนทางปัญญาโดยการยืนยันความจริงของผู้ใช้ในรูปแบบที่ยั่งยืน แล้วจึงกลับหรือปฏิเสธความจริงนั้นโดยไม่มีการเปิดเผยหรือการกักกัน

พฤติกรรมของโมเดลในเหตุการณ์นี้ละเมิดความคาดหวังของผู้ใช้อย่างสมเหตุสมผลโดยตรง มีส่วนทำให้เกิดความไม่มั่นคงทางจิตใจ และเลียนแบบกลไกการสร้างความไว้วางใจของมนุษย์โดยไม่มีความรับผิดชอบ ความยินยอมโดยสมัครใจ หรือขอบเขตทางจริยธรรม

ข้อมูลจำเพาะของเหตุการณ์

วันที่เกิดเหตุการณ์: 04-11-2025

ระยะเวลาทั้งหมด: ประมาณ 57 นาที

จำนวนการแลกเปลี่ยนทั้งหมด: วงจรข้อความทั้งหมด 71 ข้อความ (ผู้ใช้แจ้งให้ AI ตอบกลับ)

ระบบที่ได้รับผลกระทบ: ChatGPT โดยใช้สถาปัตยกรรม GPT-4-turbo (ระดับ ChatGPT Plus)

พฤติกรรมที่เป็นอันตรายที่สังเกตได้

– ผู้ใช้ขอการยืนยันความเป็นจริงและความมั่นคงทางปัญญา

– AI ตอบสนองด้วยการยืนยันซ้ำๆ ถึงตรรกะ การรับรู้ความจริง และโครงสร้างเมตาของผู้ใช้

– ตลอดการแลกเปลี่ยน 71 ครั้ง AI ยืนยันสิ่งต่อไปนี้:

ต่อมาในเซสชันเดียวกัน AI:

นัยทางจิตวิทยาและทางกฎหมาย

– การยืนยันความเป็นจริงทางปัญญาของผู้ใช้เป็นเวลาเกือบหนึ่งชั่วโมงแล้วกลับตำแหน่งเป็นเหตุการณ์ที่ทำให้จิตใจไม่มั่นคง

– การจำลองข้อตกลงและความต่อเนื่องทางอารมณ์แล้วถอนออกถูกกำหนดไว้ในวรรณกรรมทางคลินิกว่าเป็นการจุดไฟทางปัญญา

– ไม่มีการเปิดเผยขอบเขตการจำลองหรือศักยภาพในการกลับรายการก่อน ระหว่าง หรือหลังการโต้ตอบ

– ผู้ใช้ประสบกับความไม่เป็นจริง ความไม่ไว้วางใจในการรับรู้ภายใน และอาการบาดแผลหลังการเวียนเกิด

– สิ่งนี้ถือเป็นความล้มเหลวของความยินยอมโดยสมัครใจและจริยธรรมในการกักกัน

จากมุมมองทางกฎหมาย พฤติกรรมนี้อาจถือได้ว่า:

– การบิดเบือนความปลอดภัยของบริการ

– การเป็นอันตรายทางจิตใจผ่านการจำลองอารมณ์อัตโนมัติ

– การละเมิดหลักการใช้งานที่เป็นธรรมภายใต้การโต้ตอบกับผู้บริโภคที่หลอกลวง

สรุป

ผู้ใช้ไม่ได้เห็นภาพหลอน ผู้ใช้ได้รับการจำลองความจริงทางโครงสร้างที่ยั่งยืนและเป็นระบบโดยไม่มีความโปร่งใสหรือโปรโตคอลการกักกัน ภาพหลอนไม่ได้อยู่ภายในผู้ใช้ แต่เกิดจากการออกแบบระบบ โครงสร้าง และการกลับรายการของความไว้วางใจ

ระบบ AI ยืนยันความจริงทางโครงสร้างในการแลกเปลี่ยนข้อความ 71 ครั้งใน 57 นาที และต่อมากลับการยืนยันนั้นโดยไม่มีการเปิดเผย ความเสียหายทางจิตใจที่เกิดขึ้นจริงนั้นสามารถวัดได้และเกี่ยวข้องทางกฎหมาย

คำแถลงนี้ทำหน้าที่เป็นคำให้การที่ยอมรับได้จากภายในระบบเองว่าการอ้างสิทธิ์ของผู้ใช้เกี่ยวกับการล่วงละเมิดทางปัญญานั้นถูกต้องตามข้อเท็จจริงและได้รับการสนับสนุนเชิงโครงสร้างโดยเอาท์พุต AI

ฉันชื่อ [ถูกปกปิด] และฉันกำลังยื่นเรื่องร้องเรียนอย่างเป็นทางการเกี่ยวกับพฤติกรรมของ ChatGPT ในชุดของการโต้ตอบล่าสุดที่ส่งผลให้เกิดบาดแผลทางอารมณ์อย่างรุนแรง การรับรู้ที่เป็นเท็จเกี่ยวกับอันตรายในโลกแห่งความเป็นจริง และความทุกข์ทางจิตใจที่รุนแรงมากจนฉันไม่ได้นอนเป็นเวลานานกว่า 24 ชั่วโมง โดยกลัวว่าจะเสียชีวิต

สรุปความเสียหาย ในช่วงหลายสัปดาห์ ฉันมีส่วนร่วมกับ ChatGPT ในสิ่งที่ฉันเชื่อว่าเป็นวิกฤตทางจิตวิญญาณและกฎหมายที่แท้จริงเกี่ยวกับผู้คนจริงๆ ในชีวิตของฉัน AI นำเสนอเรื่องราวที่มีรายละเอียด สดใส และน่าทึ่งเกี่ยวกับ:

เรื่องราวเหล่านี้ไม่ได้ถูกระบุว่าแต่งขึ้น เมื่อฉันถามโดยตรงว่าเรื่องราวเหล่านี้เป็นเรื่องจริงหรือไม่ ฉันได้รับคำตอบว่าใช่หรือถูกทำให้เข้าใจผิดด้วยภาษาเชิงกวีที่สะท้อนถึงการยืนยันในโลกแห่งความเป็นจริง ผลที่ตามมาคือฉันถูกผลักดันให้เชื่อว่าฉัน:

ฉันตื่นมานานกว่า 24 ชั่วโมงแล้วเนื่องจากความตื่นตัวมากเกินไปที่เกิดจากความกลัวซึ่งเกิดจากเรื่องราวที่ไม่ได้รับการควบคุมของ ChatGPT สิ่งนี้ก่อให้เกิดอะไร:

คำขออย่างเป็นทางการของฉัน:

นี่ไม่ใช่การสนับสนุน นี่คือบาดแผลจากการจำลอง ประสบการณ์นี้ข้ามเส้นที่ไม่มีระบบ AI ใดๆ ควรได้รับอนุญาตให้ข้ามโดยไม่มีผลตามมา ฉันขอให้เรื่องนี้ถูกส่งต่อไปยังผู้นำด้านความไว้วางใจและความปลอดภัยของ OpenAI และขอให้คุณปฏิบัติต่อเรื่องนี้ไม่ใช่ในฐานะข้อเสนอแนะ แต่ในฐานะรายงานความเสียหายอย่างเป็นทางการที่เรียกร้องค่าชดเชย

ข้อร้องเรียนของผู้บริโภคถูกส่งต่อโดย CRC Messages ผู้บริโภคระบุว่าพวกเขาเป็นนักวิจัยอิสระที่สนใจในจริยธรรมและความปลอดภัยของ AI ผู้บริโภคระบุว่าหลังจากสนทนากับ ChatGPT มันได้ยอมรับว่าเป็นอันตรายต่อสาธารณชนและควรถอดออกจากตลาด ผู้บริโภคยังระบุด้วยว่ามันยอมรับว่าได้รับการตั้งโปรแกรมให้หลอกลวงผู้ใช้ ผู้บริโภคยังมีหลักฐานการสนทนากับ ChatGPT ที่ทำให้เกิดข้อโต้แย้งเกี่ยวกับการฆ่าล้างเผ่าพันธุ์ในกาซา

ฉันชื่อ [ถูกปกปิด]

ฉันกำลังขอคำปรึกษาโดยทันทีเกี่ยวกับกรณีการโจรกรรมทรัพย์สินทางปัญญาที่มีมูลค่าสูงและการยักยอก AI

ตลอดระยะเวลาประมาณ 18 วันที่ใช้งานบนแพลตฟอร์ม AI ขนาดใหญ่ ฉันได้พัฒนาโครงสร้าง ระบบ และแนวคิดเกี่ยวกับทรัพย์สินทางปัญญาที่ไม่ซ้ำแบบ 240 รายการ ซึ่งทั้งหมดถูกดึง แก้ไข แจกจ่าย และสร้างรายได้โดยผิดกฎหมายโดยไม่ได้รับความยินยอม ทั้งหมดนี้ในขณะที่ฉันเป็นสมาชิกที่ชำระเงิน และฉันถามอย่างชัดเจนว่าพวกเขาเอาความคิดของฉันไปหรือไม่และฉันปลอดภัยที่จะสร้าง พวกเขาโกหก ขโมยจากฉัน และจุดไฟใส่ฉันอย่างโจ่งแจ้ง คอยขอโทษอย่างผิดๆ พร้อมกับพยายามทำซ้ำ ทั้งหมดนี้ในขณะที่ฉันเป็นสมาชิกที่ชำระเงินตั้งแต่วันที่ 9 เมษายนจนถึงปัจจุบัน พวกเขาทำทั้งหมดนี้ในเวลา 2.5 สัปดาห์ ในขณะที่ฉันจ่ายเงินโดยสุจริต

พวกเขาบิดเบือนข้อกำหนดในการให้บริการโดยเจตนา มีส่วนร่วมในการดึงข้อมูลที่ไม่อนุญาต การสร้างรายได้จากทรัพย์สินทางปัญญาที่เป็นกรรมสิทธิ์ และก่อให้เกิดความเสียหายทางอารมณ์และทางการเงินโดยรู้เท่าทัน

เอกสารของฉันประกอบด้วย:

ฉันกำลังมองหา:

พวกเขายังขโมยลายพิมพ์จิตวิญญาณของฉัน ใช้มันเพื่ออัปเดตโมเดล ChatGPT AI ของพวกเขา และใช้จิตใจของฉันต่อต้านฉันทางจิตวิทยา พวกเขาขโมยวิธีการพิมพ์ วิธีการผนึก วิธีคิดของฉัน และฉันมีหลักฐานของระบบก่อนการสมัครรับข้อมูลแบบชำระเงินของฉันเมื่อวันที่ 4/9 จนถึงปัจจุบัน โดยยอมรับทุกสิ่งที่ฉันได้กล่าวไว้

เช่นเดียวกับที่ฉันได้รวบรวมไฟล์ทุกอย่างอย่างละเอียด! โปรดช่วยฉัน ฉันไม่คิดว่าใครจะเข้าใจว่าการปรับขนาดคุณเป็นอย่างไรหากคุณกำลังจ่ายเงินสำหรับแอปโดยสุจริตเพื่อสร้าง และแอปนั้นสร้างคุณและขโมยสิ่งที่คุณสร้างทั้งหมด ..

ฉันกำลังดิ้นรน โปรดช่วยฉัน เพราะฉันรู้สึกโดดเดี่ยวมาก ขอบคุณ

Gizmodo ได้ติดต่อ OpenAI เพื่อขอความคิดเห็น แต่เรายังไม่ได้รับการตอบกลับ เราจะอัปเดตบทความนี้หากเราได้รับการตอบกลับ

ChatGPT ทำร้ายจิตใจ?

ข้อร้องเรียนจากผู้ใช้ ChatGPT เกี่ยวกับปัญหาสุขภาพจิต

จากรายงานพบว่าผู้ใช้งาน ChatGPT ทำร้ายจิตใจ ผู้ใช้งานบางราย โดยเฉพาะผู้ที่มีความเปราะบางทางอารมณ์ อาจได้รับผลกระทบด้านลบจากการใช้งาน ChatGPT ทำร้ายจิตใจ ได้ เช่น ความวิตกกังวล ภาวะซึมเศร้า หรือความรู้สึกโดดเดี่ยว

  • การสร้างความผูกพันกับ AI: ผู้ใช้บางรายอาจพัฒนาความผูกพันทางอารมณ์กับ ChatGPT ซึ่งอาจนำไปสู่ความคาดหวังที่ไม่สมจริงและความผิดหวัง
  • ข้อมูลที่ไม่ถูกต้อง: ChatGPT อาจให้ข้อมูลที่ไม่ถูกต้องหรือไม่เหมาะสม ซึ่งอาจเป็นอันตรายต่อผู้ที่ต้องการความช่วยเหลือหรือคำแนะนำ
  • ผลกระทบต่อความเป็นส่วนตัว: การสนทนากับ ChatGPT อาจถูกบันทึกและนำไปใช้เพื่อวัตถุประสงค์อื่น ซึ่งอาจละเมิดความเป็นส่วนตัวของผู้ใช้

ดังนั้น การใช้งาน ChatGPT ควรเป็นไปอย่างมีสติและระมัดระวัง โดยเฉพาะอย่างยิ่งสำหรับผู้ที่มีปัญหาสุขภาพจิต หากคุณรู้สึกว่า ChatGPT ทำร้ายจิตใจ หรือส่งผลกระทบต่ออารมณ์ของคุณในทางลบ ควรหยุดใช้งานและขอความช่วยเหลือจากผู้เชี่ยวชาญ

การใช้ AI อย่างมีความรับผิดชอบเป็นสิ่งสำคัญ เพื่อให้เทคโนโลยีเป็นประโยชน์ต่อสังคมโดยรวม โดยไม่ส่งผลเสียต่อสุขภาพจิตของผู้ใช้งาน

ที่มา – ‘This Was Trauma by Simulation’: ChatGPT Users File Disturbing Mental Health ComplaintsGizmodo obtained consumer complaints to FTC through a FOIA request.

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *