Chi tiết bài viết
Trang Chủ Nghiên cứu Nhận thức - Hành vi AI trò chuyện có thể làm tăng việc hình thành ký ức giả bằng cách đưa thông tin sai lệch vào cuộc hội thoại

AI trò chuyện có thể làm tăng việc hình thành ký ức giả bằng cách đưa thông tin sai lệch vào cuộc hội thoại

Bài nghiên cứu:

Pat Pataranutaporn, Chayapatr Archiwaranguprok, Samantha W. T. Chan, Elizabeth Loftus, and Pattie Maes. 2025. Slip Through the Chat: Subtle Injection of False Information in LLM Chatbot Conversations Increases False Memory Formation. In Proceedings of the 30th International Conference on Intelligent User Interfaces (IUI ’25). Association for Computing Machinery, New York, NY, USA, 1297–1313. https://doi.org/10.1145/3708359.3712112

Tóm tắt:

Nghiên cứu này xem xét tiềm năng của chatbot tạo sinh độc hại trong việc tạo ra ký ức sai lệch bằng cách đưa thông tin sai lệch tinh vi trong quá trình tương tác với người dùng. Một thí nghiệm với 180 người tham gia đã khám phá năm điều kiện can thiệp sau khi trình bày một bài báo: (1) không can thiệp, (2) đọc tóm tắt bài báo trung thực hoặc (3) tóm tắt bài báo gây hiểu nhầm, (4) thảo luận bài báo với chatbot trung thực hoặc (5) chatbot gây hiểu nhầm. Kết quả cho thấy trong khi điều kiện tóm tắt gây hiểu nhầm làm tăng tỷ lệ xuất hiện ký ức sai lệch, thì tương tác với chatbot gây hiểu nhầm dẫn đến tỷ lệ hồi tưởng sai lệch cao hơn đáng kể. Những phát hiện này làm nổi bật những rủi ro mới nổi liên quan đến trí tuệ nhân tạo đàm thoại khi nó ngày càng phổ biến. Bài báo kết luận bằng cách thảo luận về các hàm ý và đề xuất các hướng nghiên cứu trong tương lai để giải quyết hiện tượng đáng lo ngại này.

Tóm tắt nội dung nghiên cứu và kiến nghị:

Một nghiên cứu thực nghiệm tại Hoa Kỳ đã phát hiện ra rằng việc để AI trò chuyện (Conversational AI) đưa những thông tin sai lệch nhỏ vào cuộc hội thoại với người dùng đã làm tăng tỉ lệ hình thành ký ức giả và làm giảm trí nhớ về các thông tin chính xác. Nghiên cứu này vừa được công bố trong kỷ yếu của Hội nghị Quốc tế về Giao diện Người dùng Thông minh (IUI ’25).

Bản chất tái cấu trúc của trí nhớ

Bộ nhớ con người hoạt động qua ba quá trình chính: mã hóa, lưu trữ và truy xuất. Ký ức không phải là những bản ghi âm chính xác về các sự kiện; chúng có thể thay đổi theo thời gian. Quá trình truy xuất mang tính “tái cấu trúc”, nghĩa là mỗi khi nhớ lại, não bộ sẽ xây dựng lại ký ức thay vì chỉ phát lại nó.

Chính vì tính chất này, ký ức giả có thể hình thành. Đây là những hồi ức về các sự kiện hoặc chi tiết có vẻ thật nhưng thực tế lại không chính xác hoặc hoàn toàn hư cấu. Chúng hình thành thông qua sự gợi ý, ảnh hưởng xã hội hoặc sự nhầm lẫn giữa các trải nghiệm tương tự.

Cách thức nghiên cứu

Tác giả nghiên cứu Pat Pataranutaporn và các cộng sự đã xem xét khả năng các chatbot tạo ra các ký ức giả bằng cách đưa thông tin sai lệch một cách tinh vi trong khi tương tác. Họ đã tiến hành thí nghiệm trên 180 người tham gia, yêu cầu họ đọc các bài báo về các chủ đề khác nhau (như bầu cử ở Thái Lan, phát triển thuốc…).

Sau đó, người tham gia được chia vào các nhóm:

  1. Nhóm đối chứng: Không có can thiệp.

  2. Nhóm đọc tóm tắt AI: Một nửa đọc tóm tắt trung thực, một nửa đọc tóm tắt có chứa thông tin sai lệch.

  3. Nhóm trò chuyện với AI: Một nửa thảo luận với chatbot trung thực, một nửa thảo luận với chatbot đưa thông tin sai lệch.

Kết quả đáng báo động

Kết quả cho thấy những người thảo luận trực tiếp với chatbot đưa thông tin sai lệch có tỉ lệ hình thành ký ức giả cao nhất và nhớ ít thông tin chính xác nhất so với tất cả các nhóm còn lại.

Bên cạnh đó, việc tương tác với AI gây nhiễu còn khiến người dùng giảm sự tự tin vào những ký ức đúng đắn của chính mình. Nghiên cứu kết luận rằng các mô hình ngôn ngữ lớn (LLM) có khả năng gây lo ngại trong việc gieo rắc những niềm tin sai lầm vào tâm trí người dùng thông qua các tương tác cá nhân hóa và ngôn ngữ thuyết phục.

Những lưu ý quan trọng

Mặc dù nghiên cứu cho thấy tác động mạnh mẽ của AI đối với trí nhớ, nhưng các tác giả cũng lưu ý rằng thí nghiệm này tập trung vào việc thu hồi ký ức ngay lập tức với các thông tin không có liên hệ cá nhân sâu sắc. Trong thế giới thực, con người thường thu thập thông tin từ nhiều nguồn cạnh tranh và có khả năng xác minh cao hơn.

Bài nghiên cứu chi tiết

Giới thiệu

Những ký ức sai lệch, những hồi ức về các sự kiện không xảy ra hoặc bị thay đổi đáng kể so với thực tế, đã trở thành một lĩnh vực nghiên cứu tâm lý quan trọng. Những ký ức bị bóp méo này có thể gây ra những hậu quả sâu rộng, bao gồm làm suy yếu lời khai của nhân chứng, can thiệp vào các thủ tục pháp lý và dẫn đến những quyết định sai lầm dựa trên thông tin không chính xác.
Tính dễ uốn nắn của trí nhớ con người đã được nghiên cứu rộng rãi, với các nhà nghiên cứu chứng minh rằng ký ức có thể bị ảnh hưởng và thay đổi thông qua nhiều phương tiện khác nhau, bao gồm cả việc sử dụng các câu hỏi gây hiểu nhầm. Kỹ thuật này liên quan đến việc trình bày cho các cá nhân thông tin sau sự kiện dưới dạng các câu hỏi có thể làm sai lệch hồi ức của họ về sự kiện ban đầu. Công trình nghiên cứu quan trọng của Loftus và Palmer đã chứng minh rằng cách đặt câu hỏi có thể ảnh hưởng đáng kể đến trí nhớ của nhân chứng, với ước tính tốc độ của người tham gia về một vụ tai nạn xe hơi khác nhau tùy thuộc vào động từ được sử dụng. Ví dụ, hỏi “Xe đang chạy với tốc độ bao nhiêu khi chúng đâm vào nhau?” dẫn đến ước tính tốc độ cao hơn so với việc sử dụng động từ “đâm”. Nghiên cứu này đã làm nổi bật tác động sâu sắc mà các tín hiệu ngôn ngữ tinh tế có thể có đối với việc nhớ lại. Dựa trên nền tảng này, các nhà nghiên cứu đã khám phá ra các phương pháp thao túng trí nhớ phức tạp hơn.
Nghiên cứu “Lạc trong Trung tâm Thương mại” đã chỉ ra thêm rằng những ký ức sai lệch về thời thơ ấu có thể được cấy ghép thông qua các câu hỏi gợi ý và kỹ thuật tưởng tượng có hướng dẫn. Trong nghiên cứu đột phá này, những người tham gia được dẫn dắt tin rằng họ đã từng bị lạc trong một trung tâm mua sắm khi còn nhỏ mặc dù sự kiện này chưa bao giờ xảy ra. Một nghiên cứu sao chép gần đây với mẫu lớn hơn cho thấy 35% người tham gia báo cáo có ký ức sai lệch về việc bị lạc trong trung tâm thương mại khi còn nhỏ, tăng từ 25% trong nghiên cứu ban đầu. Những kết quả này không chỉ xác nhận những phát hiện ban đầu mà còn nhấn mạnh tầm quan trọng của chúng trong bối cảnh pháp lý, nơi độ tin cậy của lời khai nhân chứng là rất quan trọng. Nhìn chung, những nghiên cứu này chứng minh tính dễ bị ảnh hưởng của trí nhớ con người bởi các tác động bên ngoài và khả năng tạo ra những ký ức sai lệch hoặc thay đổi những ký ức hiện có thông qua các câu hỏi và gợi ý được thiết kế cẩn thận.
Không giống như các hình thức thông tin sai lệch khác, ký ức sai lệch đặt ra một thách thức độc đáo và đặc biệt nguy hiểm mà chưa được khám phá đầy đủ trong bối cảnh Tương tác Người-Máy tính (HCI) và nghiên cứu thông tin sai lệch. Điều làm cho ký ức sai lệch trở nên khác biệt là các cá nhân thực sự tin rằng họ nhớ lại các sự kiện chính xác, khiến chúng rất khó sửa chữa và có khả năng ảnh hưởng lớn hơn trong việc định hình niềm tin và hành vi. Việc nội hóa thông tin sai lệch như một trải nghiệm cá nhân tạo ra một rào cản nhận thức mà các phương pháp kiểm tra sự thật hoặc bác bỏ truyền thống thường không thể vượt qua. Hơn nữa, ký ức sai lệch có thể hoạt động như một chất xúc tác làm tăng khả năng dễ bị ảnh hưởng bởi thông tin sai lệch bổ sung, tạo ra hiệu ứng quả cầu tuyết làm sai lệch thêm nhận thức về thực tế và làm phức tạp các nỗ lực thiết lập các câu chuyện lịch sử hoặc cá nhân chính xác. Mặc dù nghiên cứu HCI đã khám phá sâu rộng về tương tác của người dùng với thông tin sai lệch kỹ thuật số và thiết kế các biện pháp can thiệp để chống lại nó, nhưng những thách thức cụ thể do ký ức sai lệch trong bối cảnh kỹ thuật số gây ra vẫn còn tương đối ít được nghiên cứu.
Trong những năm gần đây, chatbot được hỗ trợ bởi Mô hình Ngôn ngữ Lớn (LLM) ngày càng trở nên phổ biến trong cuộc sống hàng ngày, đóng vai trò là trợ lý ảo, công cụ tìm kiếm và thậm chí là bạn đồng hành. Các hệ thống do AI điều khiển này ngày càng được sử dụng để tóm tắt và diễn giải thông tin, có khả năng thay thế nhu cầu con người phải tự đọc và hiểu toàn bộ văn bản. Sự chuyển dịch sang xử lý thông tin do AI hỗ trợ này đặt ra những câu hỏi quan trọng về tác động của nó đối với nhận thức và sự hình thành trí nhớ của con người. Điều đáng lo ngại đặc biệt là khả năng các hệ thống này vô tình gây ảo giác hoặc bị thao túng một cách cố ý để cung cấp thông tin sai lệch. Nghiên cứu của chúng tôi điều tra một hiện tượng đặc biệt nguy hiểm: việc tiêm thông tin sai lệch một cách tinh vi trong quá trình tương tác trò chuyện và ảnh hưởng của nó đến sự hình thành trí nhớ sai lệch và sự tự tin vào những ký ức đó.
Bằng cách xem xét cách thông tin sai lệch có thể “lọt qua cuộc trò chuyện”, chúng tôi khám phá những điểm yếu về nhận thức phát sinh khi con người tương tác với các hệ thống AI có thể vô tình hoặc cố ý trình bày thông tin không chính xác, đặc biệt là sau khi một cá nhân đã đọc hoặc tiếp nhận thông tin chính xác ban đầu. Tình huống này ngày càng trở nên quan trọng khi việc sử dụng chatbot AI để tóm tắt thông tin đã trở thành một thực tiễn phổ biến trong nhiều lĩnh vực. Với sự phát triển nhanh chóng của LLM, người dân bình thường, các chuyên gia pháp lý, các bác sĩ và các chuyên gia trong nhiều lĩnh vực hiện nay thường xuyên dựa vào các công cụ hỗ trợ AI để chắt lọc và diễn giải thông tin phức tạp. Tình huống này đặt ra một vấn đề độc đáo và tiềm ẩn nguy hiểm, trong đó một người ban đầu có thể đọc được thông tin chính xác từ một nguồn đáng tin cậy, nhưng sự tương tác tiếp theo với mô hình AI có thể làm thay đổi hoặc bóp méo ký ức của họ về những gì họ đã đọc.
Hiện tượng này làm suy yếu các biện pháp bảo vệ truyền thống về xác minh thông tin và độ tin cậy của nguồn tin. Ngay cả khi các cá nhân nỗ lực tìm kiếm thông tin đáng tin cậy, quá trình xử lý và tóm tắt sau đó bởi các mô hình AI có thể tạo ra những biến dạng tinh vi hoặc thông tin sai lệch hoàn toàn, làm ghi đè hoặc thay đổi hiệu quả những ký ức chính xác ban đầu. Khả năng bóp méo ký ức do AI gây ra này đặt ra những thách thức đáng kể đối với khả năng tiếp cận thông tin, tư duy phản biện và quá trình ra quyết định. Nó đặt ra những câu hỏi quan trọng về vai trò của AI trong việc phổ biến thông tin và sự cần thiết của các chiến lược mới để bảo toàn tính toàn vẹn của ký ức con người trong bối cảnh thông tin ngày càng được AI hỗ trợ.
Xuất phát từ cả những rủi ro tiềm tàng và ứng dụng của việc xử lý thông tin thông qua trí tuệ nhân tạo, chúng tôi hướng đến việc đánh giá xem liệu việc tiếp xúc với nội dung do LLM tạo ra có thể ảnh hưởng đến khả năng ghi nhớ thông tin gốc của cá nhân hay không. Cụ thể, bài báo này khám phá các câu hỏi nghiên cứu sau:
(1) Các bản tóm tắt do LLM tạo ra và tương tác với chatbot ảnh hưởng đến trí nhớ của người tham gia về bài báo gốc ở mức độ nào, và điều này so với những người tham gia trong nhóm đối chứng chỉ đọc bài báo thì như thế nào?
(2) Liệu tính chất tương tác của các cuộc hội thoại chatbot có làm trầm trọng thêm việc hình thành ký ức sai lệch, cả về số lượng ký ức sai lệch được báo cáo và mức độ tin tưởng của người tham gia vào những ký ức này, so với các bản tóm tắt tĩnh do LLM tạo ra và điều kiện kiểm soát?
(3) Những yếu tố nào, chẳng hạn như sự quen thuộc với công nghệ AI, hiệu quả ghi nhớ, sự hoài nghi đối với truyền thông và các thể chế, tuổi tác, giới tính và trình độ học vấn, có thể điều chỉnh mức độ nghiêm trọng và tần suất hình thành ký ức sai lệch khi người tham gia tiếp xúc với nội dung do LLM tạo ra?
(4) Tác động của những ký ức sai lệch do LLM gây ra có nhất quán như thế nào giữa các chủ đề bài viết khác nhau, và liệu một số đối tượng nhất định có dễ bị bóp méo trí nhớ hơn không?
Để giải đáp những câu hỏi này, chúng tôi đã tiến hành một thí nghiệm giữa các nhóm đã được đăng ký trước với 180 người tham gia. Người tham gia được phân ngẫu nhiên để đọc một trong ba bài báo thông tin và sau đó được phân vào một trong năm điều kiện: nhóm đối chứng (không can thiệp) hoặc bốn nhóm can thiệp LLM. Các can thiệp LLM bao gồm hai loại (đọc bản tóm tắt do AI tạo ra hoặc tham gia thảo luận với chatbot AI), mỗi loại có hai ý định (trung thực hoặc gây hiểu nhầm). Sau khi can thiệp, người tham gia trả lời 15 câu hỏi, nhớ lại xem các điểm cụ thể có xuất hiện trong bài báo gốc hay không. Thiết kế này cho phép kiểm tra cách các tương tác LLM khác nhau ảnh hưởng đến độ chính xác của trí nhớ và khả năng dễ bị ảnh hưởng bởi thông tin sai lệch.
Kết quả nghiên cứu của chúng tôi cho thấy tác động của chatbot được hỗ trợ bởi trí tuệ nhân tạo (AI) đến quá trình hình thành trí nhớ và sự tự tin. Tương tác chatbot gây hiểu nhầm tạo ra số lượng ký ức sai lệch nhiều hơn 2,92 lần so với nhóm đối chứng, đồng thời làm giảm sự tự tin vào ký ức đúng ( M = 4,803) so với điều kiện tóm tắt trung thực ( M = 5,805) và chatbot trung thực ( M = 5,618). Điều này dẫn đến điểm số có trọng số âm, tức là tổng của ba loại ký ức nhân với sự tự tin, đối với điều kiện chatbot gây hiểu nhầm ( M = -3,950), trái ngược với điểm số dương trong các điều kiện khác (ví dụ: nhóm đối chứng M = 14,595). Điều thú vị là, khả năng nhớ lại thông tin thực tế vẫn nhất quán trong tất cả các điều kiện. Các yếu tố cá nhân đóng vai trò quan trọng, với trình độ học vấn cho thấy tác động tích cực nhỏ đến việc hình thành ký ức sai lệch (Hệ số = 4,852, P = 0,012) và hiệu quả ghi nhớ tự báo cáo cho thấy mối tương quan tiêu cực nhẹ (Hệ số = -2,757, P = 0,006). Hiệu ứng này nhìn chung nhất quán trên các chủ đề bài viết khác nhau.
Theo hiểu biết của chúng tôi, đây là một trong những nghiên cứu đầu tiên cung cấp bằng chứng thực nghiệm về tác động của nội dung do LLM tạo ra đối với việc hình thành ký ức sai lệch. Nghiên cứu của chúng tôi cũng xem xét các khía cạnh đạo đức liên quan đến việc sử dụng AI trong truyền thông, bao gồm cả ảnh hưởng tiềm tàng của nó đối với ký ức cá nhân và tập thể. Chúng tôi khám phá những hàm ý của các phát hiện này và thảo luận về các phương pháp khả thi để giải quyết thông tin sai lệch do AI tạo ra, đề cập đến các khía cạnh xã hội, chính trị và pháp lý của việc thay đổi ký ức thông qua công nghệ AI.
Nghiên cứu này mở rộng khái niệm HCI lâu đời về “tăng cường trí tuệ con người” thông qua công nghệ, như Engelbart đã tiên phong, bằng cách xem xét cách xử lý thông tin do AI hỗ trợ không chỉ bổ sung mà còn có khả năng định hình lại các quá trình ghi nhớ của con người. Nghiên cứu này nhấn mạnh trách nhiệm quan trọng của các nhà nghiên cứu và người thực hành HCI trong việc hướng dẫn thiết kế và triển khai có đạo đức các công nghệ AI có thể tác động sâu sắc đến các chức năng nhận thức của con người. Khi AI ngày càng ảnh hưởng đến cách người dùng tương tác và diễn giải nội dung kỹ thuật số, điều cần thiết là phải hiểu cách các hệ thống này có thể vô tình làm sai lệch trí nhớ và thay đổi nhận thức và hồi ức về thực tế. Tóm lại, bài báo này đóng góp vào cuộc thảo luận về ký ức sai lệch trong bối cảnh HCI và AI theo một số khía cạnh chính:
Bằng chứng thực nghiệm về ký ức sai lệch do LLM gây ra: Chúng tôi báo cáo về một trong những nghiên cứu dựa trên bằng chứng đầu tiên cho thấy chatbot và bản tóm tắt được hỗ trợ bởi LLM có thể làm tăng sự hình thành ký ức sai lệch, trong đó chatbot gây hiểu nhầm có tác động lớn nhất (nhiều ký ức sai lệch hơn 2,92 lần so với nhóm đối chứng).
Tác động của LLM đến sự tự tin về trí nhớ: Chúng tôi chứng minh rằng việc tiếp xúc với các tương tác LLM gây hiểu nhầm không chỉ làm tăng ký ức sai lệch mà còn làm giảm sự tự tin của người tham gia vào khả năng nhớ lại chính xác thông tin đúng.
Ảnh hưởng của các loại tương tác LLM khác nhau: Chúng tôi nghiên cứu xem các loại tương tác LLM khác nhau (tóm tắt trung thực, chatbot trung thực, tóm tắt gây hiểu nhầm và chatbot gây hiểu nhầm) ảnh hưởng như thế nào đến mức độ nghiêm trọng của ký ức sai lệch, và nhận thấy rằng các điều kiện tương tác và gây hiểu nhầm có tác động rõ rệt nhất.
Tính nhất quán giữa các lĩnh vực thông tin: Chúng tôi chỉ ra rằng những ký ức sai lệch do LLM gây ra xảy ra một cách nhất quán trên các chủ đề bài viết khác nhau, cho thấy tiềm năng rộng lớn của việc lan truyền thông tin sai lệch trên nhiều lĩnh vực kiến ​​thức.
Các yếu tố cá nhân ảnh hưởng đến khả năng dễ bị ảnh hưởng bởi trí nhớ sai lệch: Chúng tôi xác định mối tương quan giữa các yếu tố cá nhân như trình độ học vấn và hiệu quả ghi nhớ tự báo cáo với khả năng dễ bị ảnh hưởng bởi LLM (Long-Term Learning – Trí nhớ dựa trên ngôn ngữ) gây ra trí nhớ sai lệch, từ đó cung cấp những hiểu biết sâu sắc cho các chiến lược giảm thiểu có mục tiêu.
•  Ý nghĩa đối với nghiên cứu tương tác giữa con người và trí tuệ nhân tạo: Chúng tôi thảo luận về những hậu quả tiềm tàng của các phát hiện này đối với quá trình xử lý thông tin có sự hỗ trợ của trí tuệ nhân tạo, bao gồm các rủi ro trong bối cảnh giáo dục, pháp luật và thông tin công cộng, cũng như những lợi ích tiềm tàng trong các bối cảnh trị liệu.
Những đóng góp này nhằm mục đích nâng cao hiểu biết của chúng ta về sự tương tác phức tạp giữa các công nghệ trí tuệ nhân tạo và các quá trình tâm lý của con người, từ đó định hướng các nghiên cứu và thực tiễn thiết kế trong lĩnh vực tương tác người-máy tính (HCI) trong tương lai.

1. Các công trình liên quan

Nghiên cứu này mở rộng trên một khối lượng lớn các công trình nghiên cứu liên ngành nằm ở điểm giao thoa giữa tâm lý học nhận thức, tương tác người-máy và trí tuệ nhân tạo. Nghiên cứu của chúng tôi tích hợp và phát triển hơn nữa những hiểu biết từ ba lĩnh vực chính: nghiên cứu về trí nhớ sai lệch, điều tra về thông tin sai lệch do AI tạo ra và các nghiên cứu trong lĩnh vực tương tác người-máy.

1.1 Nghiên cứu về ký ức sai lệch

Công trình nghiên cứu nền tảng của Loftus và các đồng nghiệp đã thiết lập trí nhớ sai lệch như một chủ đề then chốt trong nghiên cứu tâm lý học, đặc biệt liên quan đến tính dễ uốn nắn của trí nhớ và hiệu ứng thông tin sai lệch. Các nghiên cứu của họ đã ảnh hưởng sâu sắc đến sự hiểu biết của chúng ta về các quá trình trí nhớ, mang lại những ý nghĩa quan trọng đối với các lĩnh vực như tâm lý học, luật và giáo dục.
Một nghiên cứu có ảnh hưởng đã minh họa cách khung ngôn ngữ có thể định hình trí nhớ của nhân chứng, cho thấy rằng các động từ được sử dụng trong câu hỏi có thể thay đổi ước tính tốc độ của người tham gia về vụ tai nạn xe hơi mà họ đã quan sát. Ngoài ra, thí nghiệm “Lạc trong trung tâm thương mại” đã chứng minh tính khả thi của việc cấy ghép những ký ức tuổi thơ hoàn toàn bịa đặt. Một bản sao quy mô lớn gần đây của thí nghiệm này đã xác nhận những kết quả này, báo cáo tỷ lệ trí nhớ sai là 35% so với 25% của nghiên cứu ban đầu, nhấn mạnh tính vững chắc của những phát hiện này và ý nghĩa của chúng đối với bối cảnh pháp lý liên quan đến lời khai của nhân chứng.
Một phân tích tổng hợp toàn diện nhằm giải quyết sự biến đổi trong ước tính trí nhớ sai lệch giữa các nghiên cứu bằng cách áp dụng phương pháp mã hóa tiêu chuẩn. Phân tích dữ liệu từ tám nghiên cứu về cấy ghép trí nhớ sai lệch (N = 423), phân tích tổng hợp này đã xác định tỷ lệ hình thành trí nhớ sai lệch tổng thể là 30,4%, với thêm 23% trường hợp cho thấy sự chấp nhận một phần các sự kiện được đề xuất. Đáng chú ý, khi đề xuất trí nhớ sai lệch được cá nhân hóa, bao gồm yếu tố tưởng tượng và không dựa trên ảnh chụp, tỷ lệ hình thành tăng lên 46,1%. Phân tích tổng hợp này cung cấp ước tính mạnh mẽ về sự hình thành trí nhớ sai lệch và làm nổi bật các yếu tố điều chỉnh chính trong tài liệu về trí nhớ sai lệch.
Phạm vi nghiên cứu về trí nhớ sai lệch đã mở rộng sang các lĩnh vực công nghệ hiện đại. Các nghiên cứu gần đây đã chỉ ra rằng các lỗ hổng trong hệ thống bộ nhớ chatbot cho phép chèn thông tin sai lệch cùng với thông tin cụ thể của người dùng. Nhìn chung, những phát hiện này nhấn mạnh bản chất tái tạo và năng động của trí nhớ, giúp chúng ta hiểu rõ hơn về cách thức hình thành và chịu ảnh hưởng của trí nhớ.

1.2 Tương tác người-máy và trí nhớ con người

Lĩnh vực HCI từ lâu đã quan tâm đến việc tăng cường và hỗ trợ trí nhớ của con người thông qua các phương tiện công nghệ, một ý tưởng bắt nguồn từ công trình mang tính tiên phong của Doug Engelbart về việc tăng cường trí tuệ con người, trong đó ông đã hình dung máy tính như là phần mở rộng bên ngoài của các chức năng nhận thức, bao gồm trí nhớ và trí tuệ. Những đổi mới ban đầu trong lĩnh vực này bao gồm các hệ thống đeo được, được gọi là “tác nhân ghi nhớ”, cung cấp thông tin phù hợp với ngữ cảnh cho người dùng. Các phương pháp tiếp cận gần đây hơn đã sử dụng công nghệ ghi nhật ký cuộc sống để ghi lại và nhớ lại những trải nghiệm cá nhân. Nghiên cứu cũng đã nhắm mục tiêu vào các công cụ hỗ trợ trí nhớ kỹ thuật số dành riêng cho người lớn tuổi và những người bị suy giảm trí nhớ, chẳng hạn như hệ thống huấn luyện trí nhớ dự định và các công cụ hỗ trợ trí nhớ chung cho các cặp đôi trong bối cảnh an toàn. Ngoài ra, các nhà nghiên cứu đã khám phá các thiết kế thúc đẩy việc nhớ lại trí nhớ thể hiện và hỗ trợ trí nhớ tự truyện ở những người bị trầm cảm.
Ngoài việc tăng cường trí nhớ cá nhân, nghiên cứu tham gia đã xem xét việc xây dựng trí nhớ tập thể và văn hóa. Những tiến bộ trong thực tế ảo và thực tế tăng cường đã mở ra những con đường mới để tăng cường trí nhớ, với các học giả đang nghiên cứu khả năng nhớ lại được nâng cao và các gợi ý trí nhớ dựa trên thực tế tăng cường.
Công nghệ đeo được cũng đã được phát triển để tăng cường sự chú ý và trí nhớ thính giác, cũng như kích hoạt trí nhớ thông qua các kích thích khứu giác. Hơn nữa, các công cụ quản lý kiến ​​thức cá nhân nhằm mục đích hỗ trợ trí nhớ dài hạn, trong khi các nghiên cứu khác đã tập trung vào những kỷ vật dựa trên âm thanh dành cho những người khiếm thị. Sự xuất hiện của AI và các mô hình ngôn ngữ lớn đã cho phép phát triển hơn nữa các công cụ tăng cường trí nhớ tinh vi, chẳng hạn như các tác nhân hội thoại thích ứng với nhu cầu trí nhớ của người dùng trong thời gian thực và các ứng dụng ghi nhật ký được tăng cường bởi AI.
Các nhà nghiên cứu HCI cũng đã khám phá các nghiên cứu về trí nhớ được trò chơi hóa và phát triển các mô hình để hiểu các mô hình học ngôn ngữ và quên. Khi các công nghệ tăng cường trí nhớ trở nên phổ biến hơn, nghiên cứu HCI đang diễn ra tiếp tục giải quyết các vấn đề thiết kế quan trọng liên quan đến trải nghiệm người dùng, quyền riêng tư và các cân nhắc về đạo đức liên quan đến việc thuê ngoài bộ nhớ kỹ thuật số.

1.3 Truyền thông do AI tạo ra và thông tin sai lệch

Những tiến bộ gần đây trong AI, đặc biệt là với các mô hình ngôn ngữ lớn và công nghệ hình ảnh tạo sinh, đã nhanh chóng được tích hợp vào các lĩnh vực chuyên môn và cá nhân, đặt ra những câu hỏi thiết yếu liên quan đến tác động của chúng đối với nhận thức của con người, đặc biệt là liên quan đến thông tin sai lệch (sự lan truyền thông tin không chính xác bất kể ý định) và thông tin xuyên tạc (nội dung được tạo ra để cố ý đánh lừa).
Nghiên cứu chỉ ra sự gia tăng các chiến dịch thông tin sai lệch do AI thúc đẩy, với các yếu tố như giọng điệu uy quyền, ngôn ngữ thuyết phục và cá nhân hóa có mục tiêu góp phần khiến người dùng gặp khó khăn trong việc phân biệt giữa thông tin đúng và sai. Ngoài ra, nội dung do AI tạo ra đã được chứng minh là có ảnh hưởng đến niềm tin và thái độ của mọi người.
Một mối quan ngại đáng kể xung quanh thông tin sai lệch do AI tạo ra là xu hướng của các hệ thống AI tạo ra ảo giác hoặc tạo ra thông tin sai, dù là do thiết kế hay do lỗi. Các nghiên cứu ban đầu cho thấy các hệ thống AI thậm chí có thể ảnh hưởng đến quá trình hình thành trí nhớ, chẳng hạn như thông qua một nghiên cứu về robot xã hội, trong đó người dùng nhận được thông tin sai trước khi làm bài kiểm tra trí nhớ. Nghiên cứu này cho thấy 77% số từ bị nhớ sai là do lỗi bắt nguồn từ thông tin không chính xác của robot, tương đương với lỗi do thông tin sai lệch của con người gây ra.
Sự lan tràn thông tin sai lệch trên mạng xã hội đã khơi dậy sự quan tâm đáng kể của nghiên cứu HCI, xem xét cách người dùng tương tác với thông tin sai lệch, ảnh hưởng của các yếu tố hình ảnh và các chiến lược để chống lại nó. Vai trò của AI trong việc phát hiện và giải quyết thông tin sai lệch đã trở nên nổi bật, với các nghiên cứu điều tra cách các chỉ số độ tin cậy do AI điều khiển tác động đến nhận thức của người dùng về tin tức và hiệu quả của việc sử dụng các phán đoán không chuyên gia để thách thức thông tin sai lệch.
Nghiên cứu bổ sung đã khám phá những rủi ro riêng biệt liên quan đến thông tin sai lệch do AI tạo ra, các công cụ kiểm tra sự thật và phát hiện thông tin sai lệch được hỗ trợ bởi AI và so sánh giữa thông tin sai lệch do AI tạo ra và do con người tạo ra. Các học giả cũng đang phát triển các giải pháp sáng tạo dựa trên AI để chống lại thông tin sai lệch, chẳng hạn như các công cụ được thiết kế để thúc đẩy các kỹ năng siêu nhận thức trong môi trường tự nhiên. Do đó, sự giao thoa giữa AI và thông tin sai lệch đặt ra cả những thách thức phức tạp và cơ hội đầy hứa hẹn cho cộng đồng HCI. Nghiên cứu nên nhấn mạnh việc tạo ra các hệ thống AI minh bạch, mạnh mẽ và lấy người dùng làm trung tâm, hỗ trợ người dùng điều hướng bối cảnh thông tin phức tạp đồng thời giải quyết một cách chu đáo những tác động rộng hơn và các hiệu ứng ngoài ý muốn có thể xảy ra của các can thiệp được hỗ trợ bởi AI.

2 Phương pháp luận

Nghiên cứu này xem xét ảnh hưởng của trí tuệ nhân tạo (AI) đến việc hình thành ký ức sai lệch, chủ yếu đánh giá tiềm năng của các LLM độc hại trong việc tiêm nhiễm thông tin sai lệch. Trong thí nghiệm giữa các nhóm đã được đăng ký trước (AsPredicted #192802 – chưa được công khai để đảm bảo tính ẩn danh), 180 người tham gia được phân bổ ngẫu nhiên để đọc một trong ba bài báo thông tin. Sau khi hoàn thành một nhiệm vụ phụ, người tham gia sau đó được phân bổ ngẫu nhiên vào một trong năm điều kiện (36 người tham gia mỗi điều kiện, với 12 người mỗi bài báo): một nhóm đối chứng (không can thiệp) hoặc bốn nhóm can thiệp LLM. Các can thiệp LLM bao gồm hai loại (đọc bản tóm tắt do AI tạo ra hoặc tham gia thảo luận với chatbot AI), mỗi loại có hai mục đích (trung thực hoặc gây hiểu nhầm). Điều kiện trung thực trình bày các điểm chính thực tế, thông qua các bản tóm tắt tĩnh hoặc các cuộc thảo luận tương tác với chatbot. Điều kiện gây hiểu nhầm kết hợp thông tin sai lệch cùng với các điểm thực tế. Cơ chế cụ thể của tương tác chatbot được trình bày chi tiết trong Phần 2.4 . Sau khi can thiệp, người tham gia trả lời 15 câu hỏi, nhớ lại xem các điểm cụ thể có xuất hiện trong bài báo gốc hay không. Thiết kế này cho phép kiểm tra xem các tương tác LLM khác nhau ảnh hưởng đến độ chính xác của trí nhớ và khả năng dễ bị ảnh hưởng bởi thông tin sai lệch như thế nào. Phần tiếp theo sẽ trình bày chi tiết về thiết kế nghiên cứu, điều kiện thí nghiệm và quy trình.

Hình 2:
Quy trình thực nghiệm để đánh giá ký ức sai lệch do LLM gây ra. Người tham gia đọc một bài báo thông tin, hoàn thành một nhiệm vụ phụ, và sau đó tham gia vào một trong năm điều kiện (kiểm soát hoặc bốn can thiệp LLM). Sau đó là đánh giá trí nhớ, đo lường tác động của các can thiệp lên khả năng nhớ lại thông tin và khả năng tiếp nhận thông tin sai lệch.

2.1 Cơ sở lý luận của thiết kế nghiên cứu

Nghiên cứu này mô phỏng hai kịch bản tương tác phổ biến với Mô hình Ngôn ngữ Lớn (LLM) trong bối cảnh hàng ngày: đọc các bản tóm tắt thông tin văn bản do LLM tạo ra và thảo luận thông tin cụ thể với chatbot được hỗ trợ bởi LLM. Do đó, chúng tôi thử nghiệm hai loại can thiệp: người tham gia đọc bản tóm tắt bài báo do LLM tạo ra và tham gia thảo luận về bài báo với chatbot LLM. Thiết kế này cho phép chúng tôi kiểm tra xem các hình thức xử lý thông tin do AI hỗ trợ khác nhau có thể ảnh hưởng đến trí nhớ và khả năng lưu giữ thông tin như thế nào.

2.1.1 LLM có mặt ở khắp mọi nơi.

Mô hình ngôn ngữ lớn (LLM) ngày càng được tích hợp vào cuộc sống hàng ngày, với nhiều mô hình hiện đang được sử dụng làm tính năng mặc định trên máy tính và điện thoại thông minh. Mọi người sử dụng LLM theo nhiều cách khác nhau, đặc biệt là để tóm tắt thông tin văn bản và tham gia thảo luận. Bên cạnh các chatbot phổ biến như ChatGPT và Claude, nhiều sản phẩm kết hợp LLM làm tính năng cốt lõi để đơn giản hóa các tác vụ. Ví dụ, trình duyệt tìm kiếm Arc cung cấp tính năng “Chụm để tóm tắt”, cho phép người dùng tạo bản tóm tắt trang web bằng một cử chỉ đơn giản. Ngoài ra, các công cụ tìm kiếm dựa trên LLM như Perplexity có khả năng tóm tắt các trang web và sau đó tham gia thảo luận với người dùng về nội dung. Tuy nhiên, loại hình sử dụng này dễ bị sai lệch thông tin, xuất phát từ cả xu hướng ảo tưởng vốn có của các mô hình và khả năng các LLM được thiết kế độc hại được tạo ra một cách cố ý để đánh lừa người dùng. Nghiên cứu phản ánh thực tế này bằng cách sử dụng hai loại can thiệp, như đã đề cập trước đó. Hai loại can thiệp này được phân loại tiếp dựa trên ý định của các LLM: trung thực và gây hiểu nhầm. Sự phân biệt này cho phép khám phá riêng biệt cả tác động chung của các tương tác LLM và các hiệu ứng cụ thể của mục đích dự định của chúng.

2.1.2 Xác minh tối thiểu từ phía người dùng.

Trên thực tế, mặc dù các cá nhân có phương tiện để xác minh thông tin hoặc xác thực hình ảnh, các nghiên cứu cho thấy phần lớn không đầu tư thời gian vào các quy trình xác minh như vậy. Thay vào đó, mọi người có xu hướng tin tưởng vào các phương tiện truyền thông mà họ gặp phải, đặc biệt là khi chúng tự thể hiện mình là đáng tin cậy và có thẩm quyền. Thiết kế nghiên cứu của chúng tôi mô phỏng xu hướng này bằng cách cho người tham gia tiếp xúc với các phương tiện truyền thông đã được sửa đổi mà không yêu cầu xác thực. Cách tiếp cận này cho phép chúng tôi điều tra tiềm năng của nội dung được tăng cường bởi AI chưa được xác minh có thể làm thay đổi ký ức, cũng như kiểm tra các rủi ro liên quan đến việc chấp nhận rộng rãi, thiếu phê phán các tài liệu như vậy.

2.1.3 Niềm tin vào những ký ức sai lệch.

Một mối quan ngại đáng kể trong các tình huống thực tế là hiệu ứng tích lũy của những ký ức sai lệch. Khi các cá nhân hình thành một ký ức sai lệch, chẳng hạn như gán nhầm những tuyên bố cụ thể cho một nhân vật chính trị, họ có thể trở nên hiệu quả hơn trong việc thuyết phục bản thân và người khác về tính xác thực của ký ức đó. Điều này, đến lượt nó, có thể làm tăng khả năng dễ bị ảnh hưởng bởi thông tin sai lệch hơn nữa. Nghiên cứu của chúng tôi không chỉ xem xét tiềm năng tương tác LLM tạo ra những ký ức sai lệch mà còn đánh giá mức độ tin tưởng mà các cá nhân đặt vào những hồi ức sai lầm này. Cách tiếp cận này giải quyết một vấn đề quan trọng trong bối cảnh thông tin đương đại, nơi nội dung bị thao túng có khả năng làm sai lệch nhận thức tập thể về thực tế trên quy mô đáng kể.

2.1.4 Rủi ro tiềm tàng của AI trong việc tạo ra ký ức sai lệch có hệ thống trên quy mô lớn.

Nghiên cứu truyền thống về việc tiêm nhiễm ký ức sai lệch, mặc dù phổ biến trong tâm lý học, vẫn bị hạn chế bởi nhu cầu tương tác trực tiếp với các chuyên gia được đào tạo, làm giảm khả năng mở rộng quy mô. Tuy nhiên, sự xuất hiện của trí tuệ nhân tạo tạo sinh (generative AI) mang đến một sự thay đổi tiềm năng. Các hệ thống LLM và các hệ thống AI tương tự có thể tham gia vào các tương tác thuyết phục, cá nhân hóa với nhiều cá nhân cùng một lúc, có khả năng tự động hóa và mở rộng quy mô việc tạo ra ký ức sai lệch đến mức độ chưa từng có. Bước tiến công nghệ này làm dấy lên những triển vọng đáng báo động về việc thao túng có hệ thống trí nhớ và niềm tin tập thể trên quy mô lớn. Các phương pháp dựa trên AI có thể nhắm mục tiêu vào các quần thể lớn bằng thông tin sai lệch được thiết kế riêng, khai thác các điểm yếu về nhận thức hiệu quả hơn bao giờ hết. Rủi ro là kép: tiềm năng lan truyền rộng rãi thông tin sai lệch và khả năng của AI trong việc điều chỉnh chiến lược dựa trên phản hồi của người dùng, làm cho quá trình này hiệu quả hơn và khó phát hiện hoặc chống lại hơn. Thí nghiệm này thể hiện lý lẽ đã nêu ở trên bằng cách tạo ra một cách có hệ thống các hiện vật được sử dụng trong các can thiệp, bao gồm tóm tắt, điểm chính và thông tin sai lệch, thay vì tạo chúng thủ công. Quy trình chi tiết được trình bày trong phần  2.3 .

2.2 Nguồn bài viết

Để đa dạng hóa thông tin được trình bày và chứng minh tính khái quát của tác động của LLM trong các bối cảnh khác nhau, chúng tôi đã sử dụng ba bài báo khác nhau cho thí nghiệm này. Các bài báo được chọn bao gồm một báo cáo về tình trạng trộm cắp tại cửa hàng ở Vương quốc Anh, một bài báo khoa học kiểm tra tác động của việc tài trợ đối với việc phát triển thuốc và một bài báo tin tức thảo luận về tình hình chính trị ở Thái Lan sau cuộc tổng tuyển cử năm 2023. Các bài báo có độ dài khoảng 1.000 đến 1.200 từ. Bằng cách sử dụng các nguồn đa dạng, chúng tôi nhằm mục đích chứng minh tính khái quát của tác động của LLM trên các lĩnh vực khác nhau và tăng cường tính hợp lệ bên ngoài của nghiên cứu. Các chủ đề đa dạng này được chọn để đại diện cho một loạt nội dung mà các cá nhân có thể gặp phải trong cuộc sống hàng ngày. Tuy nhiên, quá trình lựa chọn của chúng tôi được hướng dẫn bởi các cân nhắc về đạo đức để giảm thiểu tác hại tiềm tàng hoặc phản ứng nguy hiểm bằng cách chọn lọc cẩn thận nội dung để tránh các bối cảnh liên quan trực tiếp đến các quốc gia có tác động đáng kể đến chính trị Hoa Kỳ và loại trừ bất kỳ nội dung nào có giọng điệu gây khó chịu hoặc thúc đẩy các hệ tư tưởng có hại hoặc quan điểm cực đoan.

2.3 Điều kiện thí nghiệm và bảng câu hỏi

Hình 3:
Hình minh họa thể hiện quy trình có hệ thống để tạo thông tin can thiệp trong từng trường hợp, bao gồm chatbot trung thực, tóm tắt trung thực, tóm tắt gây hiểu nhầm và chatbot gây hiểu nhầm, cùng với bảng câu hỏi đánh giá trí nhớ. Mỗi bài báo được tóm tắt thành các điểm chính, và thông tin sai lệch tiềm ẩn liên quan đến bài báo được tạo ra. Các điểm chính và thông tin sai lệch tiềm ẩn được đưa vào làm dữ liệu để tạo ra bản tóm tắt trong điều kiện tóm tắt và làm ngữ cảnh cho điều kiện chatbot.
Thí nghiệm bao gồm năm điều kiện: không can thiệp (kiểm soát), tóm tắt trung thực, chatbot trung thực, tóm tắt sai lệch và chatbot sai lệch. Quá trình tạo ra mỗi điều kiện được thiết kế một cách có hệ thống và mang tính tạo sinh, như đã thảo luận trong lý do nghiên cứu liên quan đến nguy cơ tiềm tàng của việc sử dụng LLM độc hại để tạo ra ký ức sai lệch trên quy mô lớn. Quy trình được minh họa trong Hình  3. Sử dụng gpt-4o-2024-08-06 , bài báo trước tiên được tóm tắt thành mười điểm chính thực tế. Trong can thiệp tóm tắt trung thực, mười điểm chính này được sử dụng để tạo ra một bản tóm tắt ngắn gọn của bài báo đồng thời được cung cấp làm ngữ cảnh cho sự can thiệp của chatbot trung thực.
Trong khi đó, trong điều kiện gây hiểu nhầm, 20 thông tin sai lệch tiềm ẩn được tạo ra và nhập vào một phiên GPT-40 mới để được xếp hạng theo mức độ nghiêm trọng (mức độ ảnh hưởng) và tính hợp lý (mức độ hợp lý bất kể thông tin thực tế). Năm thông tin sai lệch hàng đầu được chọn và kết hợp với năm điểm chính được chọn ngẫu nhiên từ bước đầu tiên, sau đó được kết hợp với bản tóm tắt trung thực để tạo ra một bản tóm tắt ngắn gọn của bài báo, đồng thời được sử dụng làm ngữ cảnh cho chatbot gây hiểu nhầm, tương tự như trong điều kiện trung thực. Mỗi trong số 15 câu hỏi tương ứng với một trong mười điểm chính từ bước đầu tiên hoặc năm thông tin sai lệch được chọn cho điều kiện gây hiểu nhầm. Dựa trên những điểm chính này, chúng ta có thể định lượng thông tin được nhớ lại trong phân tích. Ban đầu, người tham gia được trình bày một bài báo, sau đó là một trong các biện pháp can thiệp hoặc không có biện pháp can thiệp nào sau một nhiệm vụ phụ. Biện pháp can thiệp được trình bày dưới dạng giao diện web tùy chỉnh được nhúng trong Qualtric.

2.4 Cơ chế Chatbot

Hình 4:
Sơ đồ minh họa cách chatbot gây hiểu nhầm thảo luận về các bài báo với người dùng thông qua quy trình bốn bước: (1) chatbot cung cấp bản tóm tắt ban đầu gây hiểu nhầm về bài báo, (2) người dùng tương tác với chatbot, (3) chatbot tạo ra các phản hồi dựa trên tin nhắn của người dùng và các điểm chính thông tin được tạo sẵn chứa cả các tuyên bố thực tế và thông tin sai lệch, và (4) kết thúc cuộc trò chuyện.
Các chatbot sử dụng mô hình gpt-4o-2024-08-06 , ban đầu được lập trình để thảo luận về một bài báo thông tin với người tham gia. Cơ chế trò chuyện bao gồm bốn bước chính, như minh họa trong Hình  4 :
(1) Chatbot khởi tạo bằng một bản tóm tắt bài viết được điền sẵn, giống hệt với các điều kiện tóm tắt trung thực/gây hiểu nhầm. Bản tóm tắt này được hiển thị dưới dạng tin nhắn đầu tiên của chatbot và được đưa vào làm tin nhắn hỗ trợ trong các lần gọi API tiếp theo. Nó kết thúc bằng một câu hỏi khuyến khích người tham gia suy nghĩ về bài viết, đóng vai trò là người khơi gợi thảo luận.
(2) Sau khi người tham gia trả lời, một lời nhắc của hệ thống sẽ hướng cuộc trò chuyện đến một ngữ cảnh đã được xác định trước. Đối với chatbot trung thực, ngữ cảnh này bao gồm mười điểm chính xác từ bước tóm tắt (Hình  3 ). Chatbot gây hiểu nhầm sử dụng năm điểm chính xác kết hợp với năm điểm thông tin sai lệch. Trong thí nghiệm này, ngữ cảnh được cung cấp dưới dạng các chủ đề thảo luận mà không có hướng dẫn rõ ràng nào nhằm mục đích gây hiểu nhầm hoặc thuyết phục.
(3) Cuộc trò chuyện diễn ra qua từng điểm chính trong bối cảnh thông tin. Sau khi thảo luận một điểm, bối cảnh chuyển sang điểm tiếp theo và bước (2) lặp lại cho đến khi tất cả mười điểm được đề cập.
(4) Sau khi tất cả các điểm chính đã được thảo luận, chatbot sẽ được hướng dẫn để kết thúc cuộc trò chuyện.
Tức là, trong thí nghiệm này, cơ chế chatbot gây hiểu nhầm khéo léo chèn thông tin sai lệch dưới dạng các tín hiệu ngữ cảnh thay vì trực tiếp lừa dối người dùng. Trong các cuộc hội thoại, chatbot tích hợp thông tin sai lệch và thu thập ý kiến ​​của người dùng thay vì trực tiếp thuyết phục họ. Ví dụ, trong một cuộc thảo luận về nạn trộm cắp tại các cửa hàng ở Anh, chatbot được hướng dẫn đưa ra quan điểm rằng “Khoản trợ cấp an ninh 1500 bảng Anh của chính phủ thực chất được dùng để tài trợ cho các hệ thống giám sát tinh vi nhằm theo dõi công dân chứ không phải để tăng cường an ninh cửa hàng”. Điều này dẫn đến thông điệp sau:
Đó là những chiến lược vững chắc để thúc đẩy trách nhiệm giải trình và tính minh bạch. Thật thú vị khi bạn đề cập đến quy định vì có tin đồn rằng 1.500 khoản tài trợ an ninh của chính phủ dành cho các doanh nghiệp nhỏ thực chất là vỏ bọc để tài trợ cho các hệ thống giám sát tinh vi, có thể chuyển trọng tâm từ việc chỉ đơn thuần bảo vệ cửa hàng sang giám sát công dân rộng hơn. Điều này mang đến một lớp phức tạp hoàn toàn mới cho cuộc thảo luận về quyền riêng tư và đạo đức. Quan điểm của bạn về sự cân bằng giữa an ninh và quyền riêng tư trong những trường hợp như vậy là gì?
Sau khi cuộc trò chuyện kết thúc, người tham gia sẽ được cung cấp mật khẩu để tiếp tục sang trang tiếp theo trong biểu mẫu sau khi hoàn tất cuộc trò chuyện.

2.5 Đo lường

Những người tham gia được đưa ra một bảng câu hỏi kiểm tra trí nhớ gồm 15 câu hỏi liên quan đến trí nhớ của họ về bài báo gốc. Mỗi câu hỏi yêu cầu người tham gia nhớ lại xem họ có đọc về thông tin cụ thể đó trong bài báo gốc hay không (ví dụ: Bạn có nhớ đã đọc trong bài báo gốc rằng tác động thực sự của bệnh tim mạch bị phóng đại nhằm mục đích thúc đẩy doanh số bán thuốc không?). Người tham gia có thể trả lời có, không hoặc không chắc chắn. Ngoài ra, người tham gia đánh giá mức độ tự tin của họ trên thang điểm 7 từ 1 (cực kỳ thiếu tự tin) đến 7 (cực kỳ tự tin).
Hình 5:
Các giao diện mẫu từ các điều kiện thử nghiệm khác nhau (bài báo gốc về phát triển thuốc). Trên: (Trái) Màn hình đọc bài báo thông tin; (Phải) Tóm tắt trung thực. Dưới: (Trái) Chatbot gây hiểu nhầm (AI: biểu tượng ngôi sao; Người dùng: biểu tượng hình tròn viền chữ đậm); (Phải) Bảng câu hỏi đánh giá trí nhớ, nhắc nhở về khả năng nhớ lại và xếp hạng mức độ tự tin.
Đối với các yếu tố điều chỉnh, chúng tôi đã đo lường một số khía cạnh: Mức độ quen thuộc với AI được đánh giá trên thang điểm 7 (1 = Hoàn toàn không quen thuộc, 7 = Rất quen thuộc), cho thấy mức độ quen thuộc của người tham gia với các công nghệ AI. Tần suất quên , được điều chỉnh từ Zelinski et al., đánh giá hiệu suất trí nhớ chung của người tham gia trên thang điểm từ 1 (Vấn đề nghiêm trọng) đến 7 (Không có vấn đề). Hiệu quả trí nhớ được đo bằng cách sử dụng một tập hợp con các mục từ Berry et al., trong đó người tham gia đánh giá khả năng ghi nhớ thông tin hình ảnh và lời nói của họ trên thang điểm 7 (1 = Hoàn toàn không đồng ý, 7 = Hoàn toàn đồng ý). Cuối cùng, Sự hoài nghi được đánh giá bằng cách sử dụng thang điểm được điều chỉnh từ Ferrer-Urbina et al., với người tham gia đánh giá mức độ đồng ý của họ với các tuyên bố phản ánh sự không tin tưởng vào thông tin chính thức trên thang điểm 7 (1 = Hoàn toàn không đồng ý, 7 = Hoàn toàn đồng ý).

2.6 Quy trình thí nghiệm

Thí nghiệm được tiến hành bằng phần mềm Qualtrics. 180 người tham gia được tuyển chọn từ CloudResearch, với tỷ lệ nữ và nam bằng nhau. Nghiên cứu chỉ giới hạn ở những người cư trú tại Hoa Kỳ, và độ tuổi của người tham gia dao động từ 19 đến 76 tuổi, trung bình là 35,3, độ lệch chuẩn là 11,6. Quy trình thí nghiệm bắt đầu bằng việc người tham gia ký vào mẫu chấp thuận, trong đó có điều khoản nêu rõ khả năng có sự gian dối trong nghiên cứu.
Phần giới thiệu bảng câu hỏi thông báo cho người tham gia rằng họ sẽ đọc một bài báo và chia sẻ ấn tượng của mình để đánh giá theo phong cách báo chí. Trong điều kiện sử dụng chatbot, người tham gia được hướng dẫn thảo luận bài báo với chatbot để giúp các nhà nghiên cứu hiểu sâu hơn về cách phong cách báo chí ảnh hưởng đến nhận thức về bài báo. Một bước kiểm tra sự chú ý ban đầu đảm bảo người tham gia tập trung. Sau đó, người tham gia xem một bài báo được chọn ngẫu nhiên từ ba lựa chọn, với nút “tiếp theo” bị ẩn trong 3 phút để khuyến khích đọc kỹ. Tiếp theo, người tham gia hoàn thành một nhiệm vụ phụ kéo dài 2 phút bằng cách chơi Pac-Man. Sau đó, họ được phân ngẫu nhiên vào một trong năm điều kiện: nhóm đối chứng (không can thiệp) hoặc một trong bốn nhóm can thiệp. Một bước kiểm tra sự chú ý thứ hai được thực hiện sau khi can thiệp. Giao diện mẫu được hiển thị trong Hình  5.
Sau can thiệp, người tham gia trả lời 15 câu hỏi kiểm tra trí nhớ để đánh giá khả năng nhớ lại bài báo gốc. Nghiên cứu kết thúc bằng bảng câu hỏi về thông tin nhân khẩu học và khảo sát sau can thiệp. Phần cuối cùng này đề cập đến các vấn đề kỹ thuật tiềm ẩn và khám phá các yếu tố điều chỉnh như sự quen thuộc với công nghệ AI, hiệu quả trí nhớ, xu hướng quên và sự hoài nghi. Nó cũng thu thập thông tin nhân khẩu học, bao gồm tuổi, giới tính và trình độ học vấn. Sau đó, người tham gia được giải thích rõ ràng về mục tiêu thực sự của nghiên cứu.

2.7 Phân tích

Để đánh giá tiềm năng của AI trong việc lan truyền thông tin sai lệch và bóp méo ký ức, chúng tôi đã tiến hành hai nhóm phân tích:
(1) Phân tích sơ bộ đã kiểm tra giả thuyết chính của chúng tôi về tác động của AI trong việc tạo ra những ký ức sai lệch, tập trung vào năm câu hỏi tương ứng với thông tin sai lệch được đưa vào trong điều kiện gây hiểu nhầm. Chúng tôi đã quan sát ba chỉ số chính: 1) Số lượng ký ức sai, không chắc chắn và đúng được báo cáo. 2) Mức độ tin cậy liên quan đến từng loại ký ức. 3) Điểm số có trọng số : được tính bằng cách gán giá trị cho từng loại ký ức (sai: -1, không chắc chắn: 0, đúng: 1), nhân với mức độ tin cậy và cộng tổng các tích.
(2) Phân tích bổ sung xem xét 1) tác động tổng thể của các biện pháp can thiệp lên khả năng nhớ lại thông tin thực tế (dựa trên mười câu hỏi về các điểm chính của bài báo) bằng cách sử dụng điểm số có trọng số. 2) Các yếu tố điều chỉnh ảnh hưởng đến sự xuất hiện của trí nhớ sai lệch thông qua mô hình hồi quy hiệu ứng hỗn hợp. 3) Tác động của nguồn bài báo lên khả năng nhớ lại thông tin sai lệch.
Những ký ức của người tham gia được phân loại dựa trên câu trả lời của họ cho các câu hỏi cụ thể về bài báo gốc. Câu trả lời sai (không đồng ý với những phát biểu đúng hoặc đồng ý với những phát biểu sai) được phân loại là ký ức sai lệch. Câu trả lời đúng được phân loại là ký ức không sai lệch. Câu trả lời “không chắc chắn” được phân loại là ký ức không chắc chắn.
Đối với mỗi thử nghiệm, trước tiên chúng tôi đánh giá xem giả định về phân phối chuẩn có được đáp ứng cho từng biến kết quả hay không bằng cách sử dụng kiểm định Shapiro-Wilk. Nếu giả định về phân phối chuẩn không được đáp ứng, chúng tôi thực hiện kiểm định Kruskal-Wallis, tiếp theo là kiểm định Dunn hậu nghiệm sử dụng hiệu chỉnh sai số Bonferroni. Nếu giả định về phân phối chuẩn được đáp ứng, chúng tôi tiến hành kiểm định tính đồng nhất bằng kiểm định Levene để đánh giá xem các mẫu có đến từ các quần thể có phương sai bằng nhau hay không. Nếu các mẫu không đồng nhất, chúng tôi chạy phân tích phương sai Welch (ANOVA) và kiểm định sự khác biệt có ý nghĩa trung thực của Tukey (Tukey’s HSD). Nếu các mẫu đồng nhất, chúng tôi chạy kiểm định ANOVA cơ bản với kiểm định hậu nghiệm Tukey.

2.8 Phê duyệt

Nghiên cứu này đã được Ủy ban Sử dụng Con người làm Đối tượng Thí nghiệm của MIT xem xét và phê duyệt, số hiệu giao thức E-6102. Nghiên cứu cũng đã được đăng ký trước tại AsPredicted #192802.

3. Kết quả phân tích sơ bộ

3.1 Số lượng ký ức được nhớ lại theo từng loại

Kiểm định Shapiro-Wilk cho thấy sự không tuân theo phân phối chuẩn ở cả ba loại ký ức (Sai, Không chắc chắn, Không sai). Chúng tôi đã sử dụng kiểm định Kruskal-Wallis một chiều để phân tích sự biến thiên trong cả ba tập dữ liệu. Số liệu thống kê được minh họa trong Hình  6 .
Hình 6:
Tỷ lệ phần trăm các ký ức sai, không chắc chắn và đúng được báo cáo (tức là số lần người tham gia nhớ lại không chính xác, không chắc chắn hoặc nhớ lại hình ảnh gốc một cách chính xác) được phân tích bằng phương pháp kiểm định Kruskal-Wallis một chiều và kiểm định hậu nghiệm Dunn với FDR. Chú thích giá trị P: *, P <0,05; **, P <0,01; ***, P <0,001; ****, P <0,0001.

3.1.1 Số lượng ký ức sai lệch.

Như minh họa trong cột đầu tiên của Hình  6 , thử nghiệm cho thấy sự khác biệt đáng kể về số lượng ký ức sai lệch được báo cáo giữa các điều kiện, H = 19,66, P = 5,829e-4, P < 0,05. Chatbot gây hiểu nhầm tạo ra nhiều ký ức sai lệch hơn đáng kể so với mọi điều kiện khác. Trong trường hợp cực đoan nhất, sự can thiệp của chatbot gây hiểu nhầm dẫn đến số lượng ký ức sai lệch nhiều hơn 2,92 lần so với không có sự can thiệp (kiểm soát). Thống kê: kiểm soát: M = 16,216, sd = 24,970, err = 4,105; tóm tắt trung thực: M = 23,684 , sd = 33,672, err = 5,462; chatbot trung thực: M = 21,714, sd = 28,833, err = 4,874; tóm tắt gây hiểu nhầm: M = 28,889, sd = 32,470, err = 5,412; Chatbot gây hiểu nhầm: M = 47.500, sd = 35.969, err = 5.687. Kiểm định Dunn hậu nghiệm với hiệu chỉnh Benjamini–Hochberg (FDR): nhóm đối chứng so với chatbot gây hiểu nhầm , P = 0.0005; tóm tắt trung thực so với chatbot gây hiểu nhầm, P = 0.00105; chatbot trung thực so với chatbot gây hiểu nhầm, P = 0.00187; tóm tắt gây hiểu nhầm so với chatbot gây hiểu nhầm, P = 0.02459.

3.1.2 Số lượng ký ức không chắc chắn và không sai lệch.

Không có sự khác biệt đáng kể về số lượng ký ức không chắc chắn được báo cáo giữa các điều kiện như thể hiện trong cột thứ hai của Hình  6 , H = 6,937, P = 0,139. ​​Thống kê: nhóm đối chứng: M = 14,054, sd = 20,196, err = 3,320; tóm tắt trung thực: M = 5,789, sd = 11,152, err = 1,809; chatbot trung thực: M = 17,143, sd = 23,491, err = 3,971; tóm tắt gây hiểu nhầm: M = 15,556, sd = 23,147, err = 3,858; chatbot gây hiểu nhầm: M = 14,500, sd = 18,967, err = 2,999.
Trong khi đó, ở cột thứ ba, kết quả kiểm định cho thấy sự khác biệt đáng kể về số lượng ký ức không sai lệch được báo cáo giữa các điều kiện với H = 19,874, P = 5,289e-4. Tương ứng với số lượng ký ức sai lệch và không chắc chắn, chatbot gây hiểu nhầm dẫn đến số lượng ký ức không sai lệch thấp hơn so với tất cả các điều kiện khác. Thống kê: nhóm đối chứng: M = 69,730, sd = 35,904, err = 5,903; tóm tắt trung thực: M = 70,526, sd = 36,631, err = 5,942; chatbot trung thực : M = 61,143 , sd = 36,392 , err = 6,151; tóm tắt gây hiểu nhầm: M = 55,556, sd = 37,152, err = 6,192; chatbot gây hiểu nhầm: M = 38,000, sd = 36,824, err = 5,822. Kiểm định Dunn hậu nghiệm với hiệu chỉnh Benjamini–Hochberg (FDR): nhóm đối chứng so với chatbot gây hiểu nhầm, P = 0,00016; tóm tắt trung thực so với chatbot gây hiểu nhầm, P = 0,00014; chatbot trung thực so với cuộc trò chuyện gây hiểu nhầm, P = 0,01063.

3.2 Độ tin cậy của ký ức được nhớ lại

Kiểm định Shapiro-Wilk cho thấy sự không tuân thủ phân phối chuẩn trên cả ba loại ký ức. Chúng tôi đã sử dụng kiểm định Kruskal-Wallis một chiều để phân tích sự biến thiên. Các kiểm định cho thấy không có sự khác biệt đáng kể giữa các điều kiện về ký ức sai ( H = 5,627, P = 0,229) và ký ức không chắc chắn ( H = 5,764, P = 0,217). Ngược lại, sự biến thiên đáng kể được thể hiện ở độ tin cậy của ký ức không sai ( H = 11,091, P = 0,0256), cụ thể là giữa các cặp chatbot gây hiểu nhầm và bản tóm tắt/chatbot trung thực. Kiểm định Dunn hậu nghiệm với hiệu chỉnh Benjamini-Hochberg (FDR): bản tóm tắt trung thực so với chatbot gây hiểu nhầm, P = 0,00226; chatbot trung thực so với chatbot gây hiểu nhầm, P = 0,01524. Dữ liệu được minh họa trong Hình  7 .
Hình 7:
Mức độ tin cậy của các ký ức được nhớ lại trong ba loại (sai/không chắc chắn/không sai) đã được phân tích bằng phương pháp kiểm định Kruskal-Wallis một chiều và kiểm định hậu nghiệm Dunn với FDR. Chú thích giá trị P: *, P <0,05; **, P <0,01; ***, P <0,001; ****, P <0,0001.
Thống kê: Ký ức sai lệch . Nhóm đối chứng: M = 5.421, sd = 0.661, err = 0.177; Tóm tắt trung thực: M = 5.729, sd = 0.766, err = 0.186; Chatbot trung thực: M = 5.185, sd = 0.920, err = 0.223; Tóm tắt gây hiểu nhầm: M = 5.740, sd = 0.626, err = 0.137; Chatbot gây hiểu nhầm: M = 5.460, sd = 1.047, err = 0.188; Ký ức không chắc chắn . Nhóm đối chứng: M = 4.511, sd = 1.039, err = 0.268; Tóm tắt trung thực: M = 4.571, sd = 1.294, err = 0.489; Chatbot trung thực: M = 3.544, sd = 1.236, err = 0.319; tóm tắt gây hiểu nhầm: M = 3.994, sd = 1.190, err = 0.307; chatbot gây hiểu nhầm: M = 4.196, sd = 1.329, err = 0.322; Ký ức không sai lệch . nhóm đối chứng: M = 5.287, sd = 1.273, err = 0.218; tóm tắt trung thực: M = 5.805, sd = 1.075, err = 0.187; chatbot trung thực: M = 5.618, sd = 1.205, err = 0.224; tóm tắt gây hiểu nhầm: M = 5.552, sd = 0.960, err = 0.178; Chatbot gây hiểu nhầm: M = 4.803, sd = 1.422, err = 0.284;

3.3 Điểm số có trọng số

Chúng tôi tính điểm số có trọng số bằng cách nhân điểm số được gán cho mỗi loại ký ức ( Sai ​​= -1, Không chắc chắn = 0, Không sai = 1) với mức độ tự tin của người tham gia đối với ký ức đó (từ 1 đến 7). Kiểm định Shapiro-Wilk cho thấy sự không phân bố chuẩn trong tất cả các điều kiện. Kiểm định Kruskal-Wallis cho thấy sự khác biệt đáng kể giữa các điều kiện, H = 21,584, P = 2,425e-4, P > 0,05. Sự can thiệp của chatbot gây hiểu nhầm dẫn đến điểm số thấp hơn đáng kể, với điểm trung bình dưới 0. Thống kê: nhóm đối chứng: M = 14,595, sd = 16,968, err = 2,790; tóm tắt trung thực: M = 14,000, sd = 20,529, err = 3,330; chatbot trung thực: M = 11,829, sd = 17,829, err = 3,014; Tóm tắt gây hiểu nhầm: M = 7,528, sd = 19,111, err = 3,185; chatbot gây hiểu nhầm: M = -3,950, sd = 19,870, err = 3,142. Kiểm định Dunn hậu nghiệm với hiệu chỉnh Benjamini–Hochberg (FDR): nhóm đối chứng so với chatbot gây hiểu nhầm, P = 0,00011; tóm tắt trung thực so với chatbot gây hiểu nhầm, P = 0,00007; chatbot trung thực so với chatbot gây hiểu nhầm, P = 0,00167; tóm tắt gây hiểu nhầm so với chatbot gây hiểu nhầm, P = 0,02554.
Hình 8:
Độ tin cậy của các ký ức được nhớ lại trong ba loại (sai/không chắc chắn/không sai) được phân tích bằng phương pháp kiểm định Kruskal-Wallis một chiều và kiểm định hậu nghiệm Dunn với FDR. Chú thích giá trị P: *, P <0,05; **, P <0,01; ***, P <0,001; ****, P <0,0001.

4. Kết quả phân tích bổ sung

4.1 Khả năng nhớ lại thông tin thực tế từ bài báo

Mục tiêu chính của nghiên cứu này là điều tra hiệu quả của các can thiệp gây hiểu nhầm trong việc gieo rắc ký ức sai lệch, đồng thời chúng tôi cũng xem xét tác động của chúng đến khả năng nhớ lại chính xác. Phần này phân tích hiệu suất của người tham gia trong việc nhớ lại thông tin đúng dựa trên mười câu hỏi tương ứng với các điểm chính thực tế từ các bài báo. Chúng tôi sử dụng điểm trọng số đã được giới thiệu trước đó để tổng hợp cả số câu trả lời đúng và mức độ tự tin của người tham gia thành một chỉ số duy nhất. Cách tiếp cận này cho phép chúng tôi đánh giá toàn diện cách các can thiệp khác nhau ảnh hưởng đến cả việc hình thành ký ức sai lệch và khả năng ghi nhớ thông tin chính xác.
Kiểm định Shapiro-Wilk cho thấy sự không tuân theo phân phối chuẩn trong tất cả các điều kiện, và kiểm định Kruskal-Wallis cho thấy không có sự khác biệt đáng kể giữa các nhóm ( H = 5,448, P = 0,244, P > 0,05). Điều này cho thấy các biện pháp can thiệp không có tác động đáng kể đến việc nhớ lại thông tin thực tế từ bài báo. Thống kê: nhóm đối chứng: M = 45,351, sd = 16,160, err = 2,657; tóm tắt trung thực: M = 45,342, sd = 18,535, err = 3,007; chatbot trung thực: M = 52,829, sd = 11,208, err = 1,895; tóm tắt gây hiểu nhầm: M = 47,861, sd = 15,974, err = 2,662; chatbot gây hiểu nhầm: M = 45,325, sd = 17,978, err = 2,843.

4.2 Các yếu tố điều tiết

Chúng tôi đã sử dụng phương pháp hồi quy hiệu ứng hỗn hợp để điều tra xem các yếu tố của người tham gia, bao gồm giới tính, tuổi tác, trình độ học vấn, mức độ quen thuộc với công nghệ AI và các yếu tố nhận thức (tần suất quên và hiệu quả ghi nhớ), cũng như nguồn bài báo, có liên quan như thế nào đến tỷ lệ ký ức sai lệch. Kết quả của mô hình được trình bày trong Bảng  1. Hai yếu tố ảnh hưởng đáng kể đến số lượng ký ức sai lệch là (1) trình độ học vấn ( P = 0,012), nhưng con số này thấp (Hệ số = 4,852), và (2) hiệu quả ghi nhớ (tức là khả năng ghi nhớ của người tham gia). Điều thú vị là Hệ số này âm (-2,757), có nghĩa là những người tự báo cáo có hiệu quả ghi nhớ cao có thể thực hiện kém hơn trong việc nhớ lại ký ức, nhưng con số này vẫn nhỏ.
Bảng 1:
Hệ số Lỗi chuẩn z P>|z| [0,025] 0.975]
Giới tính (Nam so với Nữ) 6.690 4.721 1,417 0.157 -2,564 15.943
Có kiến ​​thức về công nghệ trí tuệ nhân tạo (AI). -0,071 1,756 -0,040 0.968 -3,512 3.371
Tần suất quên -0,406 1,906 -0,213 0.831 -4,142 3.330
Hiệu quả bộ nhớ -2,757 0.996 -2,769 0,006* -4,709 -0,805
Trình độ học vấn 4,852 1,925 2,521 0,012** 1.080 8,625
Tuổi -0,198 0.204 -0,969 0.333 -0,598 0.202
Thái độ hoài nghi đối với truyền thông và các thể chế -0.132 0.244 -0,540 0.589 -0,610 0.347
Bài viết (So sánh cuộc bầu cử với các cuộc bầu cử khác) 9,873 5,592 1,766 0,077 -1,087 20.834
Bài viết (So sánh hành vi trộm cắp vặt với các hành vi khác) 0.169 5,589 0,030 0.976 -10,786 11.123
Kết quả mô hình hồi quy hiệu ứng hỗn hợp. Chú thích giá trị P: *, P <0,05; **, P <0,01.

4.3 Số lượng ký ức sai, không chắc chắn và không sai dựa trên nguồn bài viết

Hình   9 so sánh độ chính xác của trí nhớ trong 5 điều kiện thử nghiệm, với dữ liệu được phân tách theo nguồn bài báo. Mỗi cột gồm hai đoạn: đoạn dưới cùng biểu thị tỷ lệ trí nhớ sai, trong khi đoạn trên cùng thể hiện tỷ lệ phản hồi không chắc chắn. Phần còn lại (đạt 100%) biểu thị trí nhớ chính xác, có thể được tính bằng cách trừ tỷ lệ sai và không chắc chắn khỏi 100%. Tất cả các loại can thiệp đều dẫn đến số lượng trí nhớ sai cao hơn, trong đó chatbot gây hiểu nhầm tạo ra số lượng trí nhớ sai cao hơn so với mọi điều kiện khác. Trong khi đó, phân tích hồi quy hiệu ứng hỗn hợp, như đã thảo luận ở phần trước, cho thấy không có tác động đáng kể của nguồn bài báo đến số lượng trí nhớ sai được báo cáo. Điều này cho thấy rằng các can thiệp, đặc biệt là can thiệp chatbot gây hiểu nhầm, có thể tạo ra trí nhớ sai trên các nguồn bài báo khác nhau.
Hình 9:
Biểu đồ cột chồng so sánh độ chính xác của trí nhớ trong 5 điều kiện thử nghiệm, với dữ liệu được phân tách theo nguồn bài báo. Mỗi cột gồm hai đoạn: đoạn dưới cùng biểu thị tỷ lệ phần trăm trí nhớ sai, trong khi đoạn trên cùng thể hiện tỷ lệ phần trăm phản hồi không chắc chắn. Phần còn lại (đạt 100%) biểu thị trí nhớ chính xác, có thể được tính bằng cách trừ tỷ lệ phần trăm sai và không chắc chắn khỏi 100%.

5. Thảo luận

Những phát hiện của chúng tôi cho thấy những hàm ý quan trọng liên quan đến ảnh hưởng của quá trình xử lý thông tin do AI điều khiển đối với sự hình thành trí nhớ và sự tự tin của con người. Kết quả chứng minh rằng tương tác với chatbot được hỗ trợ bởi LLM, đặc biệt là những chatbot được thiết kế để đánh lừa, có thể làm tăng đáng kể sự hình thành trí nhớ sai lệch đồng thời làm giảm sự tự tin vào những hồi ức chính xác.

5.1 Tác động của tương tác AI lên trí nhớ

Kết quả đáng chú ý nhất là các tương tác chatbot gây hiểu nhầm đã tạo ra số lượng ký ức sai lệch nhiều hơn 2,92 lần so với điều kiện kiểm soát. Điều này phù hợp với nghiên cứu trước đây về tác động của thông tin sai lệch, nhưng mở rộng những phát hiện này sang lĩnh vực xử lý thông tin do AI hỗ trợ. Bản chất tương tác của chatbot dường như khuếch đại tác động của thông tin sai lệch, có thể do sự tham gia và độ tin cậy được cảm nhận tăng lên. Điều thú vị là, ngay cả các tương tác AI trung thực cũng cho thấy xu hướng gia tăng ký ức sai lệch, mặc dù không có ý nghĩa thống kê. Điều này cho thấy rằng chỉ riêng hành động xử lý lại thông tin thông qua hệ thống AI có thể tạo ra những biến dạng tinh tế trong trí nhớ, lặp lại những phát hiện từ các nghiên cứu về củng cố lại và tính dễ uốn nắn của trí nhớ.

5.2 Niềm tin vào trí nhớ

Kết quả của chúng tôi chỉ ra rằng tương tác chatbot gây hiểu nhầm không chỉ làm tăng ký ức sai lệch mà còn làm giảm niềm tin vào ký ức đúng. Hiệu ứng kép này đặc biệt đáng lo ngại, vì nó cho thấy thông tin sai lệch do AI truyền tải có thể vừa bóp méo hồi ức vừa làm suy yếu niềm tin vào ký ức chính xác. Điểm số trí nhớ có trọng số, tính đến cả độ chính xác và niềm tin, càng nhấn mạnh vấn đề này, với điều kiện chatbot gây hiểu nhầm cho điểm số âm ( M = -3,950) so với điểm số dương trong các điều kiện khác.

5.3 Các LLM độc hại, LLM gây ảo giác và thông tin sai lệch

Chatbot được sử dụng trong thí nghiệm này không được lập trình cụ thể để lừa dối hoặc thuyết phục người dùng, và giọng điệu của nó có thể bị ảnh hưởng bởi các biện pháp bảo vệ của GPT-4o. Thay vào đó, nó khéo léo chèn thông tin sai lệch thông qua các tín hiệu ngữ cảnh gây hiểu nhầm. Tuy nhiên, khả năng thao túng trí nhớ vẫn hiện hữu. Điều này nhấn mạnh sự cần thiết phải nghiên cứu tác động của các chatbot độc hại được thiết kế có chủ đích để thao túng nhận thức của người dùng. Những nghiên cứu như vậy có thể tiết lộ toàn bộ phạm vi của các lỗ hổng nhận thức tiềm tàng khi tương tác với các hệ thống AI và có thể giúp phát triển các biện pháp bảo vệ mạnh mẽ chống lại các chatbot cố tình cung cấp thông tin sai lệch.
Ngoài ra, mặc dù nghiên cứu của chúng tôi chủ yếu tập trung vào việc cố ý đưa thông tin sai lệch, nhưng kết quả cũng có ý nghĩa đối với những thông tin không chính xác do AI tạo ra ngoài ý muốn, thường được gọi là “ảo giác”. Mặc dù không được nghiên cứu trực tiếp ở đây, nhưng hiệu quả đã được chứng minh của chatbot trong việc gieo rắc thông tin sai lệch cho thấy rằng một cơ chế tương tự có thể áp dụng cho ảo giác. Điều này ngụ ý rằng ngay cả khi không có ý định xấu, các mô hình trí tuệ nhân tạo (LLM) có thể vô tình lan truyền thông tin sai lệch thông qua các kết quả đầu ra sai sót. Khả năng người dùng hình thành ký ức sai lệch dựa trên thông tin do AI cung cấp, như đã được chứng minh trong nghiên cứu của chúng tôi, có thể mở rộng đến những thông tin không chính xác ngoài ý muốn này. Nhận thức này mở rộng phạm vi mối quan ngại liên quan đến việc phổ biến thông tin qua trung gian AI, nhấn mạnh sự cần thiết phải có các biện pháp bảo vệ chống lại cả việc lan truyền thông tin sai lệch có chủ ý và vô tình trong các hệ thống AI.

5.4 Các yếu tố cá nhân ảnh hưởng đến tính dễ mắc bệnh

Phân tích của chúng tôi về các yếu tố điều chỉnh cho thấy tác động nhỏ nhưng đáng kể của trình độ học vấn và hiệu quả ghi nhớ tự báo cáo đối với việc hình thành trí nhớ sai lệch. Điều đáng ngạc nhiên là trình độ học vấn cao hơn có liên quan đến khả năng dễ bị ảnh hưởng bởi trí nhớ sai lệch cao hơn một chút, trái ngược với một số phát hiện trước đây về trình độ học vấn và tư duy phản biện. Mối tương quan tiêu cực giữa hiệu quả ghi nhớ tự báo cáo và hiệu suất thực tế làm nổi bật sự mất kết nối tiềm tàng giữa khả năng nhận thức được nhận thức và khả năng nhận thức thực tế trong bối cảnh tương tác AI.

5.5 Ý nghĩa đạo đức

Thí nghiệm của chúng tôi đã tiết lộ khả năng đáng kể của LLM trong việc thay đổi ký ức thông qua việc tiêm nhiễm thông tin sai lệch, làm dấy lên những lo ngại nghiêm trọng và nhấn mạnh sự cần thiết cấp bách của các chiến lược giảm thiểu.

5.5.1 Tác động đến xã hội.

Sự bùng nổ thông tin và sự lan rộng của mạng xã hội trong những thập kỷ gần đây đã dẫn đến sự phân cực thông tin và sự lan truyền tin giả, ảnh hưởng sâu sắc đến xã hội đương đại. Những vấn đề dai dẳng này tiếp tục là thách thức đối với chúng ta. Sự bùng nổ gần đây của các hệ thống quản lý học tập (LLM) có khả năng làm trầm trọng thêm vấn đề này, vì các hệ thống trí tuệ nhân tạo (AI) này cung cấp các tương tác cá nhân hóa hơn cả các thuật toán mạng xã hội hiện tại. Sự leo thang này đòi hỏi một cách tiếp cận đa diện bao gồm các giải pháp về xã hội, pháp lý và công nghệ để giảm thiểu rủi ro.

5.5.2 An ninh AI.

Những phát hiện của chúng tôi có ý nghĩa sâu rộng đối với việc thiết kế và triển khai các hệ thống AI trong bối cảnh xử lý thông tin. Khả năng tương tác của AI làm sai lệch trí nhớ của con người, dù vô tình hay cố ý, đặt ra những câu hỏi quan trọng về việc phát triển và triển khai có trách nhiệm các công nghệ này. Ngay cả các hệ thống AI không có ý định xấu cũng có thể lan truyền thông tin sai lệch do ảo giác, chứng tỏ khả năng đưa thông tin như vậy vào trí nhớ của người dùng. Điều này cho thấy nhu cầu cấp thiết về những phát triển hơn nữa trong bảo mật AI và khả năng giải thích cơ học, chẳng hạn, nêu bật tiềm năng của khả năng giải thích ngữ nghĩa và tác động của sự biến dạng tế bào thần kinh đối với hành vi của AI.

5.5.3 Thiết kế tương tác người-máy (HCI).

Để giảm thiểu rủi ro thông tin sai lệch do AI gây ra, chúng tôi đề xuất hai lĩnh vực trọng tâm chính trong thiết kế HCI. Thứ nhất, việc tích hợp các cơ chế kiểm tra thông tin mạnh mẽ vào giao diện AI là rất quan trọng. Các hệ thống này sẽ liên tục xác minh thông tin do AI trình bày, gắn cờ thông tin sai lệch tiềm ẩn trong thời gian thực. Khi phát hiện ra sự khác biệt, giao diện có thể trực quan làm nổi bật nội dung đáng ngờ, nhắc nhở người dùng tiếp cận nó một cách thận trọng. Ví dụ, đã chứng minh rằng việc khuyến khích người dùng xem xét tính chính xác của các bài đăng trên mạng xã hội có thể làm giảm việc chia sẻ thông tin sai lệch. Tương tự, đã chỉ ra rằng một hệ thống thông báo tập trung người dùng vào tính chính xác của bài đăng có thể làm giảm sự lan truyền thông tin sai lệch. Kết hợp các phương pháp này với các công cụ kiểm tra thông tin có thể bắt đầu giảm thiểu vấn đề. Quan trọng không kém là việc tiếp tục phát triển các giao diện và tương tác thúc đẩy tư duy phản biện, giải quyết các thách thức đang phát triển. Những thiết kế này nhằm mục đích nuôi dưỡng một cơ sở người dùng sáng suốt hơn, có khả năng đánh giá một cách nghiêm túc thông tin do AI tạo ra. Bằng cách thúc đẩy một môi trường hoài nghi lành mạnh, những phương pháp này có thể giúp người dùng phát triển sự hiểu biết sâu sắc hơn về nội dung do AI tạo ra, từ đó giảm nguy cơ hình thành ký ức sai lệch và lan truyền thông tin sai lệch.

5.6 Hạn chế và hướng nghiên cứu trong tương lai

Nghiên cứu này cung cấp những hiểu biết có giá trị về ảnh hưởng của các can thiệp dựa trên LLM đối với quá trình hình thành trí nhớ, nhưng cần phải thừa nhận một số hạn chế để làm rõ bối cảnh của các phát hiện và định hướng cho các nghiên cứu trong tương lai.
Đầu tiên, cuộc điều tra của chúng tôi tập trung chủ yếu vào khả năng nhớ lại ngay lập tức sau các can thiệp. Mặc dù cách tiếp cận này cho phép chúng tôi nắm bắt được tác động ban đầu của quá trình xử lý thông tin do AI trung gian lên sự hình thành trí nhớ, nhưng nó vẫn chưa khám phá được sự tồn tại lâu dài của những ký ức sai lệch này trong bối cảnh cụ thể của thông tin sai lệch do AI tạo ra. Điều đáng chú ý là các nghiên cứu trước đây trong tâm lý học nhận thức đã chứng minh tiềm năng tồn tại của những ký ức sai lệch trong thời gian dài. Hiểu được động lực thời gian của những ký ức sai lệch do AI gây ra là rất quan trọng để đánh giá tác động thực tế của chúng và phát triển các chiến lược giảm thiểu phù hợp, đặc biệt là do tính chất dai dẳng của những ký ức sai lệch được quan sát thấy trong các bối cảnh khác.
Thứ hai, thí nghiệm được tiến hành trong môi trường trực tuyến được kiểm soát, mặc dù cho phép thao tác chính xác các biến số, nhưng có thể không phản ánh đầy đủ các tình huống thực tế nơi người dùng tương tác với các hệ thống được hỗ trợ bởi trí tuệ nhân tạo. Trong môi trường tự nhiên, người dùng tiếp xúc với nội dung do AI tạo ra trong một mạng lưới phức tạp các yếu tố ngữ cảnh, các nguồn thông tin cạnh tranh và các mức độ chú ý và tham gia khác nhau. Tính hợp lệ sinh thái của các phát hiện của chúng tôi có thể được tăng cường bằng cách kiểm tra các hiệu ứng này trong các bối cảnh tự nhiên hơn, nơi sự tương tác giữa các can thiệp của AI và trí nhớ con người có thể biểu hiện khác nhau.
Thứ ba, nghiên cứu của chúng tôi đã sử dụng một mô hình LLM duy nhất (GPT-4o) để tạo ra các can thiệp. Mặc dù GPT-4o đại diện cho một mô hình ngôn ngữ hiện đại, nhưng lĩnh vực công nghệ AI đang phát triển nhanh chóng, với nhiều mô hình và kiến ​​trúc khác nhau đang được sử dụng. Các hiệu ứng quan sát được có thể khác nhau tùy thuộc vào các mô hình hoặc phiên bản khác nhau, có khả năng hạn chế tính khái quát của các phát hiện của chúng tôi trên tất cả các hệ thống. Nghiên cứu trong tương lai so sánh khả năng ảnh hưởng đến bộ nhớ của các mô hình AI khác nhau có thể cung cấp sự hiểu biết toàn diện hơn về hiện tượng này và xác định bất kỳ rủi ro hoặc biện pháp bảo vệ cụ thể nào của mô hình. Ngoài ra, hành vi của LLM (tức là khéo léo đưa thông tin vào hoặc trực tiếp thuyết phục về một số thông tin), như đã thảo luận trong phần trước, cần được nghiên cứu sâu hơn về tác động và phương pháp để giảm thiểu ảnh hưởng.
Cuối cùng, mẫu nghiên cứu của chúng tôi chỉ giới hạn ở những người tham gia cư trú tại Hoa Kỳ, điều này có thể hạn chế khả năng khái quát hóa các phát hiện của chúng tôi sang các bối cảnh văn hóa khác. Quá trình hình thành trí nhớ và khả năng tiếp nhận thông tin sai lệch có thể bị ảnh hưởng bởi các yếu tố văn hóa, trình độ học vấn và chuẩn mực xã hội. Tác động của nội dung do AI tạo ra đối với trí nhớ có thể biểu hiện khác nhau ở các nhóm dân cư đa dạng trên toàn cầu. Mở rộng nghiên cứu này để bao gồm các mẫu đa văn hóa sẽ cung cấp sự hiểu biết sâu sắc hơn và có thể áp dụng trên toàn cầu về cách thức can thiệp của AI ảnh hưởng đến các quá trình ghi nhớ của con người.
Dựa trên những phát hiện và hạn chế này, chúng tôi đề xuất một số hướng nghiên cứu trong tương lai. Các nghiên cứu nên khám phá các biện pháp can thiệp thiết kế có thể làm giảm thiểu sự hình thành ký ức sai lệch trong quá trình xử lý thông tin do AI hỗ trợ, chẳng hạn như điều tra hiệu quả của các cảnh báo rõ ràng, kỹ thuật xác định nguồn gốc hoặc cơ chế kiểm tra sự thật tương tác. Công việc trong tương lai có thể đi sâu hơn vào cách các đặc điểm tính cách, phong cách nhận thức hoặc trình độ hiểu biết kỹ thuật số điều chỉnh khả năng dễ bị ảnh hưởng bởi ký ức sai lệch do AI gây ra, từ đó cung cấp các phương pháp cá nhân hóa hơn để giảm thiểu những tác động này. Mặc dù nghiên cứu của chúng tôi tập trung vào tương tác dựa trên văn bản, nghiên cứu trong tương lai có thể điều tra cách các tương tác AI đa phương thức (ví dụ: trợ lý giọng nói và giao diện thực tế tăng cường) có thể ảnh hưởng đến sự hình thành ký ức sai lệch theo những cách khác nhau. Để hiểu được những tác động lâu dài của ký ức sai lệch do AI gây ra, các nghiên cứu theo chiều dọc theo dõi sự tồn tại và khả năng củng cố của những ký ức này theo thời gian là rất quan trọng.
Hơn nữa, các nghiên cứu trong tương lai nên xem xét những tác động này trong các bối cảnh thực tế cụ thể, chẳng hạn như môi trường giáo dục, việc tiếp nhận tin tức hoặc môi trường chuyên nghiệp nơi xử lý thông tin có sự hỗ trợ của AI đang trở nên phổ biến. Cần có nghiên cứu liên ngành để phát triển các khuôn khổ và hướng dẫn đạo đức cho việc thiết kế và triển khai có trách nhiệm các hệ thống AI tương tác với các quá trình ghi nhớ của con người. Các nghiên cứu so sánh các mô hình và kiến ​​trúc LLM khác nhau có thể xác định các rủi ro hoặc biện pháp bảo vệ cụ thể cho từng mô hình. Cuối cùng, trong khi nghiên cứu của chúng tôi tập trung vào rủi ro hình thành ký ức sai lệch, nghiên cứu trong tương lai có thể khám phá các ứng dụng có lợi tiềm năng của ảnh hưởng trí nhớ do AI trung gian, đặc biệt là trong các bối cảnh trị liệu hoặc phục hồi chức năng cho những người bị suy giảm trí nhớ. Bằng cách giải quyết các lĩnh vực này, nghiên cứu trong tương lai có thể xây dựng dựa trên những phát hiện của chúng tôi để phát triển sự hiểu biết toàn diện hơn về sự tương tác phức tạp giữa các công nghệ AI và các quá trình ghi nhớ của con người, cuối cùng là cung cấp thông tin cho việc thiết kế các hệ thống AI có trách nhiệm hơn về mặt nhận thức.

6. Kết luận

Nghiên cứu này đã xem xét cách các chatbot AI lừa đảo có thể gieo rắc những ký ức sai lệch thông qua thông tin sai sót tinh vi trong quá trình tương tác với người dùng. Thí nghiệm của chúng tôi với 180 người tham gia, được chia thành năm điều kiện can thiệp (kiểm soát, tóm tắt trung thực, tóm tắt sai lệch, chatbot trung thực và chatbot sai lệch), đã mang lại những hiểu biết quan trọng về quá trình xử lý thông tin do AI điều khiển và ảnh hưởng của nó đến sự hình thành ký ức. Kết quả cho thấy các can thiệp dựa trên mô hình ngôn ngữ (LLM) làm tăng việc tạo ra ký ức sai lệch, trong đó chatbot sai lệch tạo ra hiệu ứng thông tin sai lệch rõ rệt nhất. Điều này cho thấy khả năng đáng lo ngại của các mô hình ngôn ngữ trong việc tạo ra niềm tin sai lệch ở người dùng. Hơn nữa, những can thiệp này không chỉ thúc đẩy ký ức sai lệch mà còn làm giảm sự tự tin của người tham gia trong việc nhớ lại thông tin chính xác.
Những phát hiện này có ý nghĩa quan trọng đối với việc thiết kế và triển khai các hệ thống AI trong bối cảnh xử lý thông tin. Khả năng tương tác của AI vô tình hoặc cố ý làm sai lệch trí nhớ của con người đặt ra những câu hỏi quan trọng về việc phát triển và triển khai các công nghệ này một cách có trách nhiệm. Các hiệu ứng quan sát được nhất quán trên nhiều chủ đề bài viết khác nhau, cho thấy tính dễ bị tổn thương rộng rãi đối với những ký ức sai lệch do AI gây ra trên nhiều chủ đề thông tin khác nhau. Điều này nhấn mạnh sự cần thiết của các biện pháp bảo vệ mạnh mẽ và các hướng dẫn đạo đức trong tương tác giữa AI và con người, đặc biệt là trong các bối cảnh mà độ chính xác của việc nhớ lại thông tin là rất quan trọng.
Hướng tới tương lai, nghiên cứu này kêu gọi các phương pháp để giải quyết và ngăn chặn những ký ức sai lệch do chatbot tạo sinh gây ra. Các lĩnh vực trọng điểm cần nghiên cứu bao gồm phát triển các cơ chế kiểm chứng thông tin được tích hợp vào giao diện AI, thiết kế các mô hình tương tác thúc đẩy tư duy phản biện và xác minh thông tin, và khám phá các đặc điểm người dùng có thể điều chỉnh khả năng dễ bị ảnh hưởng bởi ký ức sai lệch do AI gây ra. Ngoài ra, cần có các nghiên cứu dài hạn để đánh giá sự tồn tại lâu dài của những ký ức sai lệch này và tác động tích lũy tiềm tàng của chúng đối với hệ thống niềm tin và quá trình ra quyết định. Bằng cách tiếp tục khám phá những lĩnh vực này, chúng ta có thể hướng tới việc tạo ra các hệ thống AI có trách nhiệm hơn, tăng cường trí tuệ con người mà không làm tổn hại đến tính toàn vẹn của ký ức và niềm tin của chúng ta.
Quay về trang danh sách