Một vụ kiện liên bang về luật “Sử dụng công nghệ giả mạo sâu để tác động đến cuộc bầu cử” của Minnesota hiện đang trực tiếp giải quyết ảnh hưởng của AI. Trong một hồ sơ gần đây, các luật sư thách thức luật này cho biết một bản khai tuyên thệ được đệ trình để hỗ trợ luật này có dấu hiệu chứa văn bản do AI tạo ra. Nhà cải cách Minnesota báo cáo Bộ trưởng Tư pháp Keith Ellison đã yêu cầu giám đốc sáng lập Phòng thí nghiệm truyền thông xã hội Stanford, Jeff Hancock, nộp đơn đệ trình, nhưng tài liệu được đệ trình bao gồm các nguồn không tồn tại và dường như đã bị ảo giác bởi ChatGPT hoặc một mô hình ngôn ngữ lớn (LLM) khác.
Bản khai của Hancock trích dẫn một nghiên cứu năm 2023 được công bố trên tạp chí Tạp chí Công nghệ thông tin & Chính trị có tiêu đề “Ảnh hưởng của video Deepfake đến thái độ và hành vi chính trị.”
Nhưng theo nhà cải cáchkhông có hồ sơ nào về nghiên cứu đó trong Tạp chí Công nghệ thông tin & Chính trị hoặc bất kỳ ấn phẩm nào khác. Một nguồn khác được trích dẫn trong tuyên bố của Hancock, “Deepfake và ảo tưởng về tính xác thực: Quá trình nhận thức đằng sau việc chấp nhận thông tin sai lệch,” dường như cũng không tồn tại.
Hancock không trả lời The Vergeyêu cầu bình luận của.
“Trích dẫn mang dấu ấn của một ‘ảo giác’ trí tuệ nhân tạo (AI), cho thấy rằng ít nhất trích dẫn được tạo ra bởi một mô hình ngôn ngữ lớn như ChatGPT,” luật sư của Hạ nghị sĩ bang Minnesota Mary Franson và Christopher Khols – một YouTuber bảo thủ người đi ngang qua ông Reagan — đã viết trong một hồ sơ. “Các nguyên đơn không biết làm thế nào mà ảo giác này lại xuất hiện trong tuyên bố của Hancock, nhưng nó khiến toàn bộ tài liệu bị nghi ngờ, đặc biệt khi phần lớn bình luận không chứa đựng bất kỳ phương pháp luận hay logic phân tích nào.”