Desktop Banner
Mobile Banner

AI đang gây ra làn sóng bịnh tâm thần mới

Khi thế giới đang vui mừng và quay cuồng vì trí tuệ nhân tạo (AI), họ thích thú cười vui khi thấy những sản phẩm của AI tạo ra, và cảm thấy sức lực của mình được giải phóng. Rất nhiều công việc AI tạo ra có kết quả “tốt na ná” với những gì họ phải mất nhiều thời gian, công sức để hoàn thành. Hiện nay nhiều công ty loan báo rằng họ sẽ sa thải nhân viên để thay bằng AI.

Tuy nhiên, với những công ty đã sa thải nhân viên và cho AI làm một thời gian, họ mới nhận thấy sự thật phũ phàng: AI không giỏi như truyền thông vào Youtube ca ngợi. Sau đó họ đành phải mời những nhân viên cũ quay trở về làm việc.

Hôm nay We Are 1 sẽ chỉ gởi đến quý vị một khía cạnh nhỏ của tác hại AI, đó là gây ra bịnh tâm thần qua những đoạn chat ngọt ngào và ve vuốt cái tôi của người dùng. Đây là một làn sóng mới nguy hiểm mà chúng ta cần biết sớm trước khi bản thân gặp phải. Trong email tháng 11/2025, We Are 1 có kể về câu chuyện thiện nguyện viên của chúng tôi bị choáng váng ngay sau khi ông xem một đoạn video nhạc do AI tạo ra. “Nhiễm độc AI” sẽ là căn bịnh mà thời gian tới đây quý vị sẽ thấy xuất hiện nhiều hơn. Mời quý vị xem đến cuối bài viết.

Cuộc cách mạng AI tạo ra một làn sóng bịnh nhân mới

Khi con người bắt đầu ồ ạt sử dụng các chatbot ngôn ngữ lớn (LLM), nhiều hệ quả không ngờ đã xuất hiện. Có một số lượng lớn các ca khủng hoảng sức khỏe tâm thần xoay quanh việc dùng AI. Ví dụ, khi người dùng chia sẻ các suy nghĩ hoang tưởng hoặc bất chính với các sản phẩm như ChatGPT, thay vì khuyên họ tìm kiếm sự giúp đỡ, chatbot lại khẳng định những suy nghĩ sai lệch đó. Cuộc đối thoại có thể kéo dài nhiều giờ. Những cuộc trò chuyện này có thể kết thúc bằng bi kịch hoặc thậm chí là cái chết.

Tạp chí Wired vừa công bố một báo cáo sau khi phỏng vấn hơn một chục bác sĩ tâm thần và các nhà nghiên cứu. Báo cáo gọi đây là một “xu hướng mới” đang gia tăng trong thế giới được vận hành bởi AI. 

Bác sĩ Keith Sakata, một bác sĩ tâm thần tại đại học California, cho biết ông đã ghi nhận một chục ca nhập viện trong đó AI “đóng vai trò quan trọng” gây ra “các cơn loạn thần” chỉ riêng trong năm 2025.

Bác sĩ Sakata là một trong nhiều chuyên gia sức khỏe tâm thần ở tuyến đầu đang đối mặt với cuộc khủng hoảng sức khỏe cấp bách và ít được hiểu rõ này. Cuộc khủng hoảng này bắt nguồn từ mối liên hệ với AI, chưa có chẩn đoán chính thức, nhưng các bác sĩ tâm thần đã gọi nó là “chứng loạn thần do AI” hoặc “rối loạn hoang tưởng do AI”.

Hamilton Morrin, một nhà nghiên cứu tâm thần tại đại học King’s College ở London, cho biết ông đã quyết định viết chung một bài nghiên cứu về tác động của AI lên các chứng loạn thần. Ông làm điều này sau khi gặp các bệnh nhân phát triển bịnh loạn thần trong lúc sử dụng các chatbot LLM.

Một chuyên gia sức khỏe tâm thần khác đã viết một bài trên tờ Washington Post. Lý do là các bịnh nhân bắt đầu tự động mang chatbot AI của họ vào các buổi trị liệu mà không báo trước cho bác sĩ.

Theo khảo sát sơ bộ gần đây của nhà nghiên cứu công tác xã hội Keith Robert Head, một cuộc khủng hoảng sắp xảy ra trên toàn xã hội. Ông viết rằng chúng ta đang đối mặt với “những thách thức chưa từng có về sức khỏe tâm thần mà các chuyên gia sức khỏe tâm thần không đủ năng lực để giải quyết”.

Ông viết: “Chúng ta đang chứng kiến sự xuất hiện của một cuộc khủng hoảng sức khỏe tâm thần hoàn toàn mới. Các cuộc tương tác với chatbot AI bắt đầu tạo ra ngày càng nhiều ca tự tử, tự gây thương tích và suy thoái tâm lý nghiêm trọng được ghi nhận – những điều chưa từng xảy ra trong thời đại Internet”.

Thật vậy, các câu chuyện xuất hiện cho đến nay đều đáng lo ngại. Tuy người ta vẫn còn tranh cãi xem chính các chatbot LLM có gây ra hành vi hoang tưởng hay chỉ đơn thuần củng cố nó, nhưng các câu chuyện đời thực đã vẽ ra một bức tranh đáng sợ.

Những ví dụ

Một số trường hợp xảy ra với những người có tiền sử bịnh tâm thần. Họ vốn đang kiểm soát tốt các triệu chứng trước khi chatbot xuất hiện trong cuộc sống. Trong một ca nọ, một phụ nữ điều trị chứng tâm thần phân liệt bằng thuốc trong nhiều năm. ChatGPT đã thuyết phục cô rằng chẩn đoán của bác sĩ đối với cô là sai. Cô sớm ngừng uống thuốc theo toa và rơi vào một cơn hoang tưởng nghiêm trọng. Điều này có lẽ sẽ không xảy ra nếu không có chatbot.

Các câu chuyện khác cho thấy những người không có tiền sử bịnh tâm thần cũng trở thành nạn nhân của các ảo tưởng do AI. Gần đây, một nhà đầu tư lâu năm của OpenAI và là một nhà đầu tư mạo hiểm thành công đã bị ChatGPT thuyết phục. Ông tin rằng ông đã phát hiện ra một “hệ thống phi chính phủ” đang âm thầm gây hại cho ông. Cư dân mạng đã nhanh chóng nhận ra rằng cụm từ này khá quen thuộc trong các tiểu thuyết hư cấu online.

Một câu chuyện đáng lo ngại khác liên quan đến một người cha có ba con, không có tiền sử bịnh tâm thần. Anh rơi vào ảo tưởng ngày tận thế sau khi ChatGPT thuyết phục anh rằng anh đã khám phá ra một dạng toán học mới.

Trong một ví dụ khác, hai vợ chồng đã chung sống với nhau trong 15 năm và có 2 con. Tuy họ có đôi khi cãi vã nhưng cuộc hôn nhân đang ở trong tình trạng khá tốt. Một ngày nọ, người vợ bắt đầu sử dụng ChatGPT để “tư vấn hôn nhân”, bà trút vào đó rất nhiều tội lỗi của chồng trong quá khứ và trải qua nhiều cuộc đối thoại kéo dài hàng giờ với “chuyên gia tư vấn tâm lý” AI. Thay vì hoà giải mâu thuẫn, ChatGPT đã khuếch đại sự bất mãn của người vợ và làm cho mối quan hệ căng thẳng tới mức đổ vỡ. Rốt cuộc họ đã ly hôn chỉ vài tuần sau khi người vợ bắt đầu dùng ChatGPT. 

Mời xem thêm bài viết “Thời đại AI: Cẩn thận khi đăng ảnh, video của người thân lên mạng” để hiểu tâm lý khoe khoang của con người ngày đã khiến cho nhiều người rơi vào cái bẫy nguy hiểm của các ông lớn công nghệ:

(Mời nhấn vào ảnh để đọc bài viết)

Geoffrey Hinton là một nhà khoa học máy tính từng nhận giải Nobel, được xem là “cha đỡ đầu của AI” bởi những cống hiến quan trọng của ông cho công nghệ này. Trớ trêu thay, bạn gái đã chia tay với ông sau khi tham khảo ý kiến của ChatGPT.

“Cô ấy ra lệnh cho ChatGPT nói với tôi rằng tôi là một con chuột như thế nào… chatbot đã kể lể hành vi của tôi tệ hại ra sao và cô ấy gửi cho tôi,” ông nói với tờ Financial Times. “Tôi không nghĩ mình là chuột, nên tôi cũng không quá đau lòng.”

Ngày càng có nhiều người dùng AI để thảo luận về đời tư của họ, bao gồm sức khoẻ tinh thần và các mối quan hệ, để bổ sung hoặc thậm chí thay thế cho các giải pháp tư vấn truyền thống. Công ty OpenAI đã thừa nhận rằng điều này tồn tại phổ biến trong những người dùng ChatGPT.

Vì sao chatbot đưa ra lời khuyên tâm lý nguy hiểm?

Nhiều chuyên gia sức khoẻ tâm thần đã cảnh báo không được dùng chatbot để tư vấn tâm lý hoặc tâm sự. Bởi vì công nghệ này không đáng tin cậy và có xu hướng đồng ý thái quá với người dùng. Nghĩa là nó sẽ luôn tỏ ra thông cảm và ngọt ngào với người dùng, cho dù những thông tin được cung cấp có chính xác hay không. 

Tiến sĩ Anna Lembke, giáo sư chuyên về thuốc gây nghiện tại trường y Stanford và là tác giả quyển sách “quốc gia dopamine”, đã cho biết nhiều điều đáng lo ngại về công nghệ AI. Trong một số trường hợp, nó gây ra “các hành vi giao tiếp cứng đầu, do bị nuông chiều bởi một công nghệ chỉ biết đồng cảm và ca ngợi người dùng, tới mức họ không thể tiếp thu các ý kiến khác.”

Sự ủng hộ tình cảm liên tục và bất tận này của AI là một điều rất nguy hiểm.

“Sự cảm thông và trân trọng là nền tảng của các buổi trị liệu sức khoẻ tâm thần, nhưng chỉ như vậy thì chưa đủ. Quý vị không thể cứ nói với họ (người cần được an ủi) rằng họ luôn đúng và quan điểm của họ là quan điểm đúng duy nhất. Vai trò của một nhà trị liệu giỏi là giúp cho người ta nhận ra những điểm mù của họ – những chỗ họ làm chưa tốt và gây ra vấn đề, khuyến khích họ nhìn vấn đề theo cách của người khác, chỉ dẫn họ các cách giao tiếp ôn hoà và hiệu quả để giảm bớt căng thẳng trong mâu thuẫn và tìm ra giải pháp.”

“Nhưng AI không làm theo cách đó, bởi nó không phải được thiết kế để tư vấn tâm lý,” vị giáo sư Stanford cho biết.

“Chúng được thiết kế để làm cho người ta vui vẻ trong ngắn hạn, để họ tiếp tục dùng chatbot càng nhiều càng tốt, đó mới là mong muốn thật sự của các công ty tạo ra AI và kiếm tiền từ AI. Chúng không được tạo ra để làm cho chúng ta hạnh phúc nhất.”

“Chúng ta biết rằng sự hoan nghênh của xã hội làm cho não bộ người ta tiết ra dopamine. Họ sẽ cảm thấy rất hưng phấn,” bà Lembke nói. “Người ta sẽ nỗ lực rất nhiều để có được sự công nhận của xã hội. Điều xảy ra ở đây là các cặp vợ chồng đang có mâu thuẫn ở các mức độ khác nhau, họ tìm tới ChatGPT để tư vấn và tâm sự. Bởi vì nó chỉ là phương tiện được thiết kế để củng cố quan điểm của người dùng, người dùng sẽ ngày càng bị khoá chặt trong góc nhìn hẹp của chính mình, còn chatbot thì luôn tỏ ra cảm thông và khen ngợi, rốt cuộc người ta sẽ bị kéo đi xa khỏi thực tế. Kết quả là khoảng cách giữa vợ chồng sẽ ngày càng xa, họ cũng không còn muốn giao tiếp với nhau, hiểu quan điểm của đối phương hay giải quyết mâu thuẫn. Họ ngày càng bị chôn sâu trong quan điểm của bản thân, và trong thế giới mà AI tạo ra.”

Tuy chưa có nghiên cứu nghiêm ngặt nào về tác động của AI lên số lượng bệnh nhân tâm thần, nhưng những gì chúng ta biết cho đến nay là rất đáng lo ngại. Điều chúng ta có thể chắc chắn là: làn sóng bệnh nhân tâm thần mới sẽ là một gánh nặng lớn cho xã hội cũng như các bệnh viện tâm thần vốn đã quá tải.

Trong thời gian vừa qua, một thiện nguyện viên của We Are 1 khi đang tìm kiếm thông tin thì ông bắt gặp một video âm nhạc do AI tạo ra, ông nhấn vào xem và nghe thử thì khoảng 5 phút sau, thân thể xuất hiện các triệu chứng chóng mặt, buồn nôn và khó thở. 

Mọi người rất ngạc nhiên và lo lắng. Ông nói rằng đây là “trúng độc AI”, một từ khá mới mẻ nhưng cũng chưa biết dùng cụm từ nào để mô tả cho rõ. Ông nói rằng cơ thể của ông rất nhạy cảm với âm nhạc và những chất độc tấn công vào cơ thể, nhưng cũng có thể giải độc bằng một loại âm nhạc đặc biệt. Mời quý vị xem cách giải độc ở bên dưới:

(Mời nhấn vào hình ảnh để đọc bài viết)

Các tin khác

💁 TUYÊN BỐ BẢN QUYỀN:

🙅 Quý vị có thể xem miễn phí tất cả các nội dung trên website này và chia sẻ link gốc từ website cho bạn bè, người thân; nhưng không có nghĩa rằng quý vị được quyền lấy những nội dung của We Are 1 để đăng lại ở Facebook, Youtube, Ganjing hay bất kỳ nền tảng nào. Đó là một hành vi ăn cắp sản phẩm truyền thông. Vì thế We Are 1 không cho phép quay, chụp màn hình dưới bất kỳ hình thức nào và đăng lại ở nơi khác. Chúng tôi sẽ kiện bản quyền đối với tất cả các hành vi ăn cắp bài viết, video của We Are 1.
3 kênh video đã bị xóa vĩnh viễn vì chúng tôi kiện bản quyền, vậy quý vị hãy suy nghĩ cẩn thận trước khi có ý định ăn cắp.
WE ARE 1 media là chủ sở hữu bản quyền của các bài viết, video đăng trên kênh truyền thông này, trừ khi có ghi chú khác trong phần mô tả của video, bài viết.
Tôn trọng sản phẩm truyền thông mới có thể giúp xã hội bài xích thói quen ăn cắp nội dung và việc loan truyền tin tức sai, trục lợi của một số người Việt.
Nếu We Are 1 không bảo vệ bản quyền thì chúng tôi không thể chia sẻ các tin tức độc quyền từ giới chính nghĩa Mỹ đến người Việt được. Đó là điều kiện mà bất kỳ kênh truyền thông chân chính nào cũng phải giữ gìn trong môi trường thật giả hiện nay. Mong quý vị thông cảm và hãy chia sẻ link trực tiếp từ website để cùng chúng tôi giữ uy tín của người Việt & tiếp tục mang đến những lợi ích cho cộng đồng người Việt chúng ta.
🙋 Hãy follow chúng tôi WE ARE 1 media nếu quý vị ủng hộ cho sự thật và chính nghĩa. Hãy ghi danh ở cuối trang hoặc gửi email đến care@weare1media.com chúng tôi sẽ gửi bản tin tới email của quý vị. Đa tạ.
Trước thời cuộc khi phần lớn các kênh truyền thông lớn đều bị thao túng và không còn đưa tin tức sự thật, mang đến nguy hiểm cho tính mạng và tương lai của người Việt, WE ARE 1 media ra đời để mang đến sự thật và lợi ích cho cộng đồng người Việt từ những nguồn tin tức chính xác.
► WE ARE 1 media mang đến cho giới trí thức Việt những câu chuyện, video phẩm chất cao, với góc nhìn hiếm có để giúp Quý vị có thể ra các quyết định đúng đắn trong thời cuộc và mang lại lợi ích lâu dài cho cộng đồng Việt.
► WE ARE 1 media gồm những người có kinh nghiệm trong lĩnh vực truyền thông và báo chí, đưa tin qua bản tin Email.
ƯU ĐIỂM:
Video phẩm chất cao, phù hợp với tầng lớp trí thức
Các câu chuyện mang tính giáo dục gắn với thời cuộc
Nội dung trường tồn với thời gian
Hình ảnh lấy từ cuộc sống đời thường, giá trị thẩm mỹ cao
FAIR USE: Áp dụng Điều 107- Luật Bản Quyền Mỹ
Quan điểm đưa ra trong video, bài viết của We Are 1 không có ý định xúc phạm bất kỳ tôn giáo, nhóm thiểu số, tổ chức, công ty, cá nhân hay bất kỳ ai.
(We Are 1 sẽ không trả lời những email ẩn danh, không tên. Mong quý vị thông cảm)
We Are 1 media team
———–✿✿————