Internet ngày nay không còn là nơi chúng ta từng biết đến. Hàng tuần, hàng triệu người tranh luận với các mạng lưới bot AI và những nhân viên được trả tiền tại các trang trại troll như Internet Research Agency (IRA), một tổ chức của Nga có trụ sở tại St. Petersburg, nổi tiếng với các chiến dịch gây ảnh hưởng trực tuyến được nhà nước tài trợ nhằm vào Hoa Kỳ và Châu Âu. Ở thời kỳ đỉnh cao, IRA có 300–400 nhân viên làm việc theo ca, tạo ra hàng chục nghìn bài đăng mỗi tháng với ngân sách 1 triệu đô la Mỹ mỗi tháng. Trong những sự kiện nổi bật vào những năm 2010, có đến một phần ba các tương tác trên mạng xã hội là không xác thực – và giờ đây, với sự trợ giúp của AI, con số này tăng lên theo cấp số nhân.
Trong những năm gần đây, một lý thuyết “ngoài lề” cũ hơn đã trở lại trong các cuộc thảo luận – Lý thuyết Internet Chết (Dead Internet Theory). Lý thuyết này cho rằng hầu hết nội dung và tương tác trên internet không còn được tạo ra bởi con người thật mà bởi các bot, nội dung do AI tạo ra và tiếng ồn được thuật toán khuếch đại. Trọng tâm của lý thuyết là niềm tin rằng các nền tảng, chính phủ hoặc tập đoàn đang đồng lõa trong quá trình nhân tạo hóa này, hoặc là do thiết kế hoặc vì lợi nhuận.
Nghe có vẻ như một thuyết âm mưu, nhưng ẩn chứa dưới tuyên bố đó là một sự thật đen tối hơn. Chúng ta đang ngày càng điều hướng trong một thế giới kỹ thuật số nơi tính xác thực được sản xuất hàng loạt. Với sự trỗi dậy của AI tạo sinh, việc sản xuất thông tin sai lệch đã trở nên rẻ hơn và nhanh hơn. Mặc dù Lý thuyết Internet Chết chỉ ra một sự bóp méo thực sự và ngày càng tăng trong cách mọi người trải nghiệm web, nó hiện được hỗ trợ bởi các nghiên cứu báo chí, nghiên cứu an ninh mạng và các công trình học thuật. Kết quả là một vòng lặp phản hồi của sự lan truyền có chủ đích, nơi các xu hướng được thúc đẩy ít hơn bởi sự quan tâm thực sự và nhiều hơn bởi động lực được thiết kế.
Internet không chết — nó đang bị bóp méo
Một lý thuyết “ngoài lề” tìm thấy sự liên quan mới
Lý thuyết Internet Chết cho rằng kể từ khoảng năm 2016 hoặc 2017, internet đã trở nên ngày càng tổng hợp – bị chiếm đóng bởi các nhân vật giả tạo, bài viết tự động tạo và tương tác tự động – trong khi hoạt động chân chính của con người bị nhấn chìm. Lý thuyết này bắt nguồn từ các cuộc thảo luận trên các diễn đàn 4chan và Wizardchan, và thu hút sự chú ý rộng rãi hơn sau một bài đăng diễn đàn vào năm 2021 trên Agora Road của một người dùng tên là IlluminatiPirate. Một năm sau, ChatGPT được phát hành ra công chúng, và các nhà báo bắt đầu xem xét lại lý thuyết này.
Bài đăng trên diễn đàn Agora Road về Lý thuyết Internet Chết từ người dùng IlluminatiPirate
Vào tháng 1 năm 2024, Dani Di Placido, một cộng tác viên cao cấp tại Forbes, đã xuất bản một bài viết giải thích Lý thuyết Internet Chết – và hoàn toàn bỏ lỡ điểm mấu chốt.
“Có những con bot ngoài kia, chắc chắn rồi, nhưng lý thuyết này không mô tả internet ngày nay, chứ đừng nói đến năm 2021. Các trang mạng xã hội luôn thực hiện các biện pháp để chặn bot spam và vẫn đang làm như vậy, ngay cả khi các bot đang phát triển, được hỗ trợ bởi AI tạo sinh.
Hiện tại, AI tạo sinh không thể tự mình tạo ra nội dung tốt, đơn giản vì AI không thể hiểu ngữ cảnh. Đại đa số các bài đăng lan truyền – ý kiến ngông cuồng, những câu nói dí dỏm, những quan sát sâu sắc, việc diễn giải lại điều quen thuộc trong một ngữ cảnh mới – không phải do AI tạo ra.”
Mặc dù đôi khi ước tính cao hơn, ít nhất 40-50% internet có thể truy cập được được báo cáo là giả mạo. Và thành thật mà nói, tôi nghi ngờ bạn cần bị thuyết phục rằng chưa đến một nửa nội dung trực tuyến là đáng tin cậy – gần như mọi nghiên cứu lớn đều xác nhận những gì hầu hết mọi người đã biết từ kinh nghiệm. Tự do internet đang ở mức thấp nhất mọi thời đại, và những tiến bộ của AI đang làm mọi thứ trở nên tồi tệ hơn nhiều.
Di Placido và nhiều nhà báo chính thống khác không nhận ra rằng AI tạo sinh không hoạt động độc lập. Luôn có một con người đứng sau nó, sử dụng nó một cách có chủ đích. Vấn đề không phải là liệu AI có thể tự sản xuất nội dung tốt hay không – mà là cách nó được sử dụng để tạo ra sự tương tác quy mô lớn, bóp méo khả năng hiển thị và làm ngập các nền tảng bằng ảnh hưởng tổng hợp và các chiến dịch thông tin sai lệch trực tuyến được tăng cường.
Thông báo của Mark Zuckerberg về việc Meta chấm dứt kiểm tra thông tin, kèm bình luận tiêu cực trên Instagram
Về ý tưởng rằng các công ty mạng xã hội đang tích cực chống lại điều này, hãy nhìn xem. Các nền tảng này kiếm lợi từ sự không xác thực. Đó là một phần cấu trúc hoạt động của chúng. Zuckerberg đã công khai tuyên bố Meta sẽ chấm dứt kiểm tra thông tin trên tất cả các nền tảng của mình. Musk đã đóng cửa toàn bộ nhóm bảo vệ tính toàn vẹn bầu cử của Twitter vào năm 2023, sau đó vài tháng đã ra mắt một cái gọi là Cộng đồng Bảo vệ Tính toàn vẹn Bầu cử – một nhóm 50.000 thành viên tràn ngập các thuyết âm mưu về gian lận cử tri và thao túng phiếu bầu.
Và chúng ta biết sự ủng hộ của Musk dành cho Trump đã đưa ông ta đến đâu – đưa ra lời chào của Đức Quốc xã trên sân khấu, can thiệp vào chính trị Hoa Kỳ và Đức, tự định vị mình là một thành viên nội các không được bầu thông qua Doge, làm giảm giá trị của Tesla và trở thành một trong những người bị ghét nhất hành tinh. Vì vậy, không có gì khó hiểu khi nghĩ rằng ông ta sẽ tích cực định hình nền tảng để phản ánh cùng một thực tế được sản xuất mà Lý thuyết Internet Chết mô tả.
Ảo ảnh của sự tương tác: Tuyên truyền quy mô lớn áp đảo tiếng nói tự nhiên
Khi tôi đề cập đến bot, tôi muốn nói đến toàn bộ các loại nội dung không xác thực – các nhân vật do AI tạo ra, nhân viên trang trại troll, người theo dõi giả mạo, các phản hồi được sản xuất hàng loạt – bất cứ thứ gì được thiết kế để mô phỏng sự tương tác của con người thật mà thực ra không phải vậy. Nếu internet gần đây có vẻ giả mạo, bạn không sai – và đó không chỉ là chính trị. Bot đang tràn ngập mọi sự kiện lớn, từ bầu cử đến văn hóa đại chúng, từ tin tức chiến tranh đến các chương trình quảng bá thương hiệu.
Thế hệ botnet AI mới này không chỉ bắt chước sự tham gia; chúng còn vượt trội hơn. Chúng nhanh, không mệt mỏi và được xây dựng để thao túng các thuật toán vốn thưởng cho hoạt động hơn là tính xác thực. Những gì thịnh hành không phải là những gì mọi người coi trọng – mà là những gì gây ra phản ứng mạnh nhất. “Rage bait” (nội dung gây tức giận) tác động mạnh hơn, kích thích dopamine và khiến mọi người quay lại để xem thêm.
Ví dụ về hồ sơ tùy chỉnh trên MySpace trước khi thay đổi giao diện, thể hiện sự cá nhân hóa
Sự chuyển dịch khỏi nội dung tự nhiên không diễn ra cùng lúc, nhưng đối với tôi, nó trở nên rõ ràng khi MySpace buộc phải thay đổi giao diện vào năm 2010. Trang web này từng cho phép bạn định hình không gian của riêng mình – mã tùy chỉnh, âm nhạc, sở thích thực tế của bạn – và đột nhiên tất cả đều bị làm phẳng thành một hồ sơ chung chung mà không ai yêu cầu. Đó là lúc mọi người bắt đầu rời đi, và tôi không đổ lỗi cho họ.
Điều đọng lại trong tôi không phải là giao diện – mà là ý nghĩa của nó về hướng đi của mọi thứ. Chúng ta đã chuyển từ cá nhân hóa sang đồng nhất, từ thể hiện sang biểu diễn, từ đối thoại sang dòng tin tức.
Trong những năm đầu đó, internet giống như một lối thoát. Đó là nơi mọi người chia sẻ những trải nghiệm thực – âm nhạc, câu chuyện, ý tưởng, nỗi đau, sự hài hước – và đối với một người bị mắc kẹt ở một thị trấn nhỏ, điều đó có ý nghĩa rất lớn. Tôi đã xây dựng các mạng lưới giúp tôi đi lưu diễn với tư cách một nhạc sĩ, gặp gỡ hàng nghìn người và kết bạn mà tôi vẫn thân thiết cho đến ngày nay. Dù tốt hay xấu, nó cảm giác như bạn đang thực sự kết nối với những con người khác.
Tất nhiên là có những kẻ tồi tệ – một số chỉ gây rối cho vui, số khác chỉ cay đắng và độc hại – nhưng nó không bao giờ cảm thấy giả dối. Nó cảm giác như những người đang thô lỗ, chứ không phải một hoạt động của công ty. Đó là điều khác biệt bây giờ. Điều từng là một người gây hỗn loạn đã leo thang thành một thứ hoàn toàn khác. Nó nhanh hơn, có sự phối hợp hơn và thường không phải là con người. Và nó không chỉ là việc troll nữa – mà là việc kiểm soát câu chuyện.
Ai đứng sau làn sóng bot?
Thao túng của nhà nước và chiến tranh tâm lý
Cuộc chiến thông tin mà chúng ta đang trải qua không bắt đầu với mạng xã hội – nó là hình thức hiện đại của một thứ đã phát triển trong nhiều thập kỷ. Tuyên truyền đã là một chiến trường trong Thế chiến II và Chiến tranh Lạnh, và các hoạt động tâm lý từ lâu đã là một phần của chiến lược quân sự và tình báo. Nhưng sự thay đổi mà chúng ta đang thấy hiện nay – nơi thông tin sai lệch là liên tục, có thể mở rộng và tương tác – có thể được truy tìm trực tiếp từ các thử nghiệm của Nga vào những năm 2000.
Sau sự sụp đổ của Liên Xô, Nga phải đối mặt với thảm họa kinh tế, bất ổn xã hội và ảnh hưởng toàn cầu suy giảm. Điện Kremlin đã phản ứng bằng cách đầu tư vào việc kiểm soát câu chuyện. Một trong những kiến trúc sư của nỗ lực này là Vladislav Surkov, một cố vấn của Vladimir Putin, người đã công khai ủng hộ tuyên truyền mâu thuẫn, gây nhầm lẫn có chủ ý và hỗn loạn thông tin như các công cụ quản lý. Điều này không phải là để khiến mọi người tin vào một sự thật duy nhất – mà là để làm mất ổn định chính khái niệm về sự thật.
Cách tiếp cận đó đã thành hình thông qua Internet Research Agency, nơi trở thành một hình mẫu cho việc công nghiệp hóa thông tin sai lệch. Nhân viên của họ không chỉ là những kẻ troll – họ tuân theo các định mức, sử dụng các hướng dẫn kiểu nội bộ và vận hành các nhân vật giả mạo trên các ranh giới ý thức hệ để gây chia rẽ và làm xói mòn lòng tin. Một số đóng vai những người bảo thủ cực đoan, số khác đóng vai các nhà hoạt động Black Lives Matter. Sự hỗn loạn là có chủ ý.
Chân dung của Donald Trump, Elon Musk và Vladimir Putin, đại diện cho các thế lực có thể liên quan đến thao túng thông tin
Các cơ quan tình báo Hoa Kỳ đã xác nhận sự tham gia của họ trong cuộc bầu cử năm 2016. Nhưng mục tiêu lớn hơn không bao giờ chỉ là bầu cử – mà là sự bất ổn lâu dài. Đẩy đủ tiếng ồn vào hệ thống, và hệ thống bắt đầu thất bại. Mọi người ngừng tin vào sự thật, vào các thể chế, vào nhau. Các trang trại troll đã tiếp cận 140 triệu người Mỹ mỗi tháng trên Facebook trước cuộc bầu cử năm 2020.
Các quốc gia khác cũng làm theo kịch bản tương tự. Ngày nay, hơn 70 chính phủ – bao gồm Trung Quốc, Iran, Ả Rập Xê Út, Israel, Ấn Độ, Venezuela và thậm chí cả Hoa Kỳ – đang điều hành các chương trình thông tin sai lệch có tổ chức. Dù được thực hiện thông qua các nhân vật do AI tạo ra, các trang trại troll hay mạng lưới khuếch đại bí mật, chiến lược vẫn giống nhau: biến sự chia rẽ thành vũ khí và để công chúng làm phần còn lại.
Bất chấp bằng chứng ngày càng tăng cho thấy chiến tranh kỹ thuật số đang leo thang, Bộ trưởng Quốc phòng Pete Hegseth đã ngừng tất cả các hoạt động tấn công mạng nhắm vào Nga. Động thái này là một phần của việc rút lại rộng rãi hơn các sáng kiến của Hoa Kỳ nhằm giải quyết các mối đe dọa trực tuyến – từ việc giải tán các nhóm an ninh bầu cử đến việc cắt giảm đầu tư liên bang vào phòng thủ mạng. Với ít biện pháp đối phó hơn, khối lượng và sự tinh vi của thông tin sai lệch sẽ chỉ tăng lên. Nhiều nội dung chúng ta thấy trực tuyến sẽ bị bịa đặt, và chúng ta sẽ phải điều hướng nó với ít sự bảo vệ hơn.
Thao túng trong nước bởi người ảnh hưởng và lợi ích doanh nghiệp
Thao túng thông tin có phối hợp không chỉ giới hạn ở các yếu tố nhà nước. Những người ảnh hưởng (influencer), nhân vật chính trị và các lợi ích của doanh nghiệp thường xuyên sử dụng các phương pháp tương tự để định hình nhận thức của công chúng. Sự khác biệt nằm ở động cơ, không phải cơ chế.
Vụ bê bối Cambridge Analytica đã phơi bày cách dữ liệu cá nhân có thể được thu thập và sử dụng để xây dựng hồ sơ tâm lý, cho phép gửi các thông điệp chính trị được nhắm mục tiêu tối ưu hóa cho phản ứng cảm xúc. Mô hình đó – nội dung được nhắm mục tiêu vi mô được thiết kế để ảnh hưởng đến hành vi – không chỉ hiệu quả; nó đã trở thành thực tiễn tiêu chuẩn trên các lĩnh vực chính trị và thương mại.
Kể từ đó, các đối tượng trong nước đã mở rộng các chiến thuật này. Các thương hiệu và công ty quản lý danh tiếng triển khai bot để làm ngập các bài đăng bằng bình luận ủng hộ hoặc để át đi những lời chỉ trích. Những người ảnh hưởng mua lượt thích, chia sẻ và bình luận để thổi phồng các chỉ số của họ và đủ điều kiện cho các hợp đồng tài trợ. Các chiến dịch phối hợp mô phỏng sự phổ biến, đàn áp sự bất đồng chính kiến và gieo rắc các câu chuyện trên các nền tảng. Phần lớn sự tương tác này được tự động hóa hoặc thuê ngoài, và ít thông báo nào phân biệt phản hồi của người dùng đích thực với sự khuếch đại tổng hợp.
Hình ảnh về "Meme Team" của Brenden Dilley, minh họa việc thao túng thông tin trong nước từ Media Matters
Các cuộc điều tra gần đây xác nhận rằng việc quảng bá dựa trên bot cũng mở rộng đến nội dung chính trị cực đoan. Trong năm 2024 và 2025, các báo cáo đã xác định các nỗ lực phối hợp nhằm khuếch đại những người ảnh hưởng cánh hữu gắn liền với việc phủ nhận kết quả bầu cử và tuyên truyền nước ngoài, bao gồm cả các hoạt động liên quan đến Nga. Các tài khoản này nhận được lượng lớn tương tác không xác thực, làm sai lệch cả phạm vi tiếp cận và tính hợp pháp được nhận thức. Một khi một bài đăng thu hút đủ tương tác – thật hay giả – nó sẽ có được động lực thuật toán và khả năng hiển thị rộng hơn, củng cố ảnh hưởng của nó.
Các ưu đãi của nền tảng càng củng cố vấn đề. Twitter đã loại bỏ các hệ thống kiểm duyệt cốt lõi, cho phép xác minh trả phí để tăng cường phạm vi tiếp cận thuật toán và cho phép các mạng lưới bot thao túng nội dung thịnh hành. Các biện pháp bảo vệ nội bộ chống lại hành vi không xác thực có phối hợp đã bị giảm hoặc loại bỏ, cho phép các đối tượng thông tin sai lệch nổi tiếng có khả năng hiển thị liên tục. Các nỗ lực chống lại những câu chuyện này thường nhận được ít sự chú ý hơn hoặc bị hạn chế một cách có chủ ý.
Cơ sở hạ tầng ủng hộ sự tương tác hơn là độ chính xác và phạm vi tiếp cận hơn là độ tin cậy. Thông tin sai lệch phát triển mạnh không phải vì nó có tính thuyết phục, mà vì các hệ thống được xây dựng để thưởng cho sự tương tác bất kể nguồn gốc của nó. Cấu trúc đó phản ánh tiền đề cốt lõi của Lý thuyết Internet Chết – không phải là internet thực sự đã chết, mà là các tín hiệu tổng hợp đã làm lu mờ sự tương tác chân chính của con người. Trên mạng xã hội, những sự bóp méo đó không còn chỉ là lý thuyết – chúng có thể đo lường được, được kiếm tiền từ và phổ biến rộng rãi.
Nhận diện hệ thống thông tin sai lệch kỹ thuật số
Cách các “troll farm” hiện đại xây dựng thông tin sai lệch quy mô lớn
Các trang trại troll tuyển dụng nhân viên thông qua các danh sách việc làm nhập liệu không rõ ràng. Sau khi ký các thỏa thuận không tiết lộ (NDA), nhân viên mới được thông báo rằng nhiệm vụ thực sự của họ là đóng giả người Mỹ hoặc công dân của quốc gia mục tiêu. Mỗi nhân viên quản lý nhiều nhân vật giả mạo trên các nền tảng như Facebook, Twitter, Instagram và Telegram. Họ được cung cấp tiểu sử được viết sẵn, album ảnh được tuyển chọn và thư viện nội dung chính trị phù hợp. Một người điều hành có thể quản lý mười hoặc nhiều nhân vật cùng lúc, mỗi người có tên, câu chuyện, phương ngữ vùng miền và quan điểm ý thức hệ riêng.
Cấu trúc hoạt động có hệ thống. Nhân viên làm việc theo ca luân phiên dưới sự giám sát của các trưởng nhóm, những người giao các chủ đề hàng ngày, xem xét hiệu suất và thực thi các chỉ tiêu tương tác nghiêm ngặt. Nhân viên sẽ bị cảnh cáo hoặc thay thế nếu một nhân vật không tạo ra đủ phản hồi, lượt thích hoặc lượt chia sẻ. Nhân viên đăng meme, tranh luận, các đoạn video viral và nội dung gây cảm xúc, thường được lấy từ kho lưu trữ đã được phê duyệt trước. Ngày càng nhiều, các trang trại sử dụng nội dung do AI tạo ra làm cơ sở, được chỉnh sửa nhẹ để phù hợp với giọng điệu hoặc đặc điểm của nhân vật.
Bảng hướng dẫn hoạt động của troll farm trên Facebook đã được dịch sang tiếng Anh, tiết lộ cách tạo thông tin sai lệch
Các tài liệu hướng dẫn vận hành bị rò rỉ từ IRA và các hoạt động tương tự hướng dẫn nhân viên duy trì hành vi hợp lý. Họ được yêu cầu đăng nội dung phi chính trị vài ngày một lần – những câu chuyện cá nhân, tiêu đề địa phương, ảnh thú cưng hoặc đồ ăn – để hòa nhập với người dùng thật. Các tài khoản nhân vật được mong đợi tham gia các nhóm cộng đồng, theo dõi các chính trị gia và doanh nghiệp, và tương tác với các chủ đề thịnh hành. Có các giao thức cụ thể về thời điểm bình luận, thời điểm phản ứng và cách nâng cấp bài đăng để chúng xuất hiện như thể đang viral.
Nhân viên thường được giao nhiệm vụ đóng nhiều vai trò khác nhau của một vấn đề. Sử dụng các nhân vật đối lập, họ dàn dựng các cuộc tranh luận sôi nổi trong phần bình luận để thu hút người dùng thật. Những cuộc trao đổi này được thiết kế không phải để thuyết phục mà để phá vỡ, khuếch đại sự nhầm lẫn, phẫn nộ hoặc chủ nghĩa bộ tộc. Một số tài khoản đẩy các thuyết âm mưu, trong khi những tài khoản khác kiểm tra tính xác thực của chúng. Mục tiêu là làm xói mòn lòng tin và làm mờ sự đồng thuận, chứ không phải xây dựng nó.
Các trang trại troll và bot hiện đại giống các công ty tiếp thị kỹ thuật số. Chúng sử dụng bảng điều khiển hiệu suất, lịch nội dung, theo dõi chỉ tiêu và hướng dẫn phong cách. Một số nhóm tập trung vào việc gieo rắc thông tin sai lệch, và những nhóm khác tăng cường tương tác để tạo ra ảo ảnh về sự đồng thuận. Giống như các chiến dịch, chúng thực hiện theo chu kỳ, nhắm mục tiêu vào các vấn đề, nhân khẩu học hoặc cuộc bầu cử cụ thể. Những gì xuất hiện như một cuộc tranh luận hữu cơ thường được sản xuất từng bài đăng, từng ca làm việc và từng kịch bản một.
Làm thế nào để nhận biết nội dung không xác thực — và ngừng tiếp tay cho nó?
Hầu hết mọi người không cần các công cụ học thuật để phát hiện một tài khoản giả mạo – họ chỉ cần chú ý. Nếu một bài đăng kích hoạt phản ứng cảm xúc ngay lập tức, hãy tạm dừng. Các trang trại troll và mạng lưới bot dựa vào sự phẫn nộ có chủ đích để chuyển hướng sự chú ý của bạn sang sự chia rẽ. Đó là sản phẩm: không phải bài đăng, mà là phản ứng của bạn.
Nếu bạn không chắc chắn và cảm thấy muốn tìm hiểu, hãy nhấp vào hồ sơ của người đăng. Bạn không cần phải điều tra – chỉ cần nhìn lướt qua. Nhìn vào tên, ảnh đại diện và tiểu sử. Các tài khoản giả mạo thường theo xu hướng. Một tuần đó là hình đại diện vector art, tuần sau đó là ảnh với ánh sáng kịch tính và những khẩu hiệu mơ hồ, đầy động lực. Chúng có thể sử dụng cấu trúc đặt tên tương tự hoặc thiếu bất kỳ thông tin cá nhân cụ thể nào. Người thật thì không nhất quán. Bot thì theo mẫu.
Các mẫu hình ảnh thu nhỏ cũng là một dấu hiệu dễ nhận biết, đặc biệt trên các nền tảng như TikTok hoặc Instagram. Hồ sơ của người thật thường phản ánh cuộc sống của họ – khuôn mặt, địa điểm, sự kiện và các sở thích ngẫu nhiên. Các tài khoản bot thường hiển thị hàng loạt hình ảnh thu nhỏ với kiểu dáng gần như giống hệt nhau: cùng phông chữ, cùng tư thế, cùng chủ đề, lặp đi lặp lại vô tận trên hàng chục hoặc hàng trăm tài khoản. Nếu bạn nhận thấy điều đó, bạn không phải đang tưởng tượng.
Ngôn ngữ cũng tố cáo chúng. Một số bot sử dụng các hashtag và cụm từ gây cảm xúc như mồi nhử; những bot khác cố gắng nghe có vẻ bình tĩnh và “hợp lý” trong khi âm thầm lan truyền thông tin sai lệch. Dù bằng cách nào, dấu hiệu nhận biết là sự lặp lại. Nếu một bình luận trông giống như hàng chục bình luận khác mà bạn đã thấy, đó là vì nó là như vậy. Bot sao chép từ một kịch bản vì các kịch bản hoạt động hiệu quả.
- Tạm dừng nếu nó khiến bạn tức giận — cảm xúc mạnh là một dấu hiệu cảnh báo.
- Nhấp vào hồ sơ — người thật có sự ngẫu nhiên: bạn bè, ảnh, những điều kỳ quặc.
- Quét tìm các mẫu — tìm kiếm tên, tiểu sử hoặc hình thu nhỏ lặp lại.
- Tin vào cảm giác của bạn — nếu nó có vẻ dàn dựng hoặc theo kịch bản, rất có thể là vậy.
- Hạn chế phản hồi — nếu bạn đã tranh cãi qua lại một hoặc hai lần, đừng để bị cuốn vào một vòng lặp.
Quy tắc đơn giản nhất? Nếu có điều gì đó cảm thấy không ổn, đừng tương tác. Nếu một bài đăng đọc như thể nó được tạo ra, hoặc tài khoản có vẻ bóng bẩy và trống rỗng một cách kỳ lạ, rất có thể là vậy. Và nếu bạn không thể kiềm chế được, đừng tranh cãi – chỉ cần để lại một bình luận nói rằng, “Tôi đã kiểm tra. Đây là một bot.” Bạn đã thực hiện công việc điều tra rồi. Nếu bạn đã trải qua vài vòng tranh cãi độc hại, đó là dấu hiệu để bạn dừng lại. Mọi phản hồi đều nuôi dưỡng hệ thống, vì vậy hãy giữ tương tác ở mức tối thiểu và tiếp tục.
Internet chưa chết, nhưng nó đã bị chiếm đóng
Internet ngày nay phản ánh một sự thay đổi trong quyền kiểm soát – từ con người, chuyển sang các hệ thống được thiết kế để thao túng sự chú ý. Thông tin sai lệch không còn chỉ là một chiến thuật. Nó là một ngành công nghiệp. Các mạng botnet có tổ chức, các nhân vật do AI điều khiển và các thuật toán tối ưu hóa tương tác đã xây dựng một thực tế thưởng cho sự phẫn nộ, chôn vùi sự thật và bóp méo những gì là thật.
Đây không phải là những vấn đề trừu tượng. Chúng xuất hiện trong dòng tin tức của bạn, trong các cuộc trò chuyện và trong cảm nhận của bạn về những gì phổ biến hay đúng sự thật. Và mặc dù dễ cảm thấy bị áp đảo, nhưng các dấu hiệu thao túng vẫn có thể nhìn thấy được – nếu bạn biết cách tìm kiếm: sự lặp lại, mồi câu cảm xúc, các tài khoản chung chung với khả năng hiển thị được thổi phồng. Hầu hết mọi người đã cảm thấy có điều gì đó không ổn. Họ chỉ chưa được cho biết phải làm gì.
Một thế hệ nền tảng mới đang nổi lên – phi tập trung, do người dùng quản lý và được thiết kế để chống lại những thất bại của các mạng lưới cũ. Mastodon và Bluesky (thay thế Twitter), Pixelfed (thay thế Instagram), PeerTube (thay thế YouTube) và Skylight Social (thay thế TikTok) được xây dựng trên các giao thức mở, mang lại cho người dùng quyền sở hữu thực sự đối với những gì họ thấy và chia sẻ. Việc kiểm duyệt minh bạch và được thúc đẩy bởi cộng đồng, không bị chi phối bởi các hệ thống mờ ám. Bot phải đối mặt với sự cản trở thực sự thông qua các danh sách chặn chung và sự giám sát của công chúng. Đây không chỉ là những lựa chọn thay thế – chúng là những cấu trúc viết lại của chính mạng xã hội, với quyền riêng tư, quyền tự chủ và tính toàn vẹn làm cốt lõi.
Không có nút đặt lại (reset). Nhưng có một con đường phía trước. Chúng ta phải trở thành những người tham gia tích cực trong việc định hình môi trường kỹ thuật số của mình thay vì những người tiêu dùng thụ động của những ảo ảnh được chọn lọc. Hãy chia sẻ suy nghĩ của bạn về những vấn đề này và cách bạn đang đối phó với thông tin sai lệch trên internet!