BÁ CHỦ AI

Đánh giá bài viết
(Bài tôi viết và thêm vài số liệu tổng hợp, sau khi đọc bản dịch “Supremacy: AI, ChatGPT and the Race That Will Change the World của Parmy Olso)
Chưa đầy một thập kỷ trước, con người vẫn là chủ thể duy nhất trên Trái Đất sở hữu năng lực kể chuyện. Thế nhưng, tiến bộ công nghệ đã làm mờ ranh giới này, khi chúng ta dạy cho những cỗ máy vô tri khả năng tái hiện ngôn từ, theo cách thức gần giống với tư duy con người.
Từ những thuật toán đơn giản, các mô hình ngôn ngữ đã phát triển thành công cụ sản xuất “nội dung có nghĩa” – dù rằng chúng chỉ là sự sắp xếp xác suất của dữ liệu. Sự phổ biến của các hệ thống như ChatGPT không chỉ đơn thuần là tiến bộ công nghệ, mà còn là một thay đổi nền tảng trong cách loài người định nghĩa lại “sự thật” và “niềm tin”.
1. Từ Homo Sapiens đến Homo Algorithmus
Loài người mất hàng triệu năm để học cách kể chuyện. Nhưng chỉ mất 7 năm (2017–2024) để các mô hình ngôn ngữ lớn (LLM – Large Language Model) đạt đến khả năng tái hiện ngôn từ gần với tư duy con người. Theo báo cáo của Stanford Institute for Human-Centered AI (2024 AI Index), số lượng mô hình LLM quy mô trên 10 tỷ tham số – đã tăng từ 2 mô hình vào 2019 lên hơn 100 mô hình vào cuối 2023.
Google giúp tìm kiếm thông tin. Nhưng ChatGPT và các LLM đã bước sang cấp độ mới: tạo ra câu chuyện và định nghĩa lại “ý nghĩa”. Một nghiên cứu của Harvard Business Review (2023) chỉ ra: 72% người dùng không phân biệt được nội dung do AI sinh ra với nội dung do con người viết, đặc biệt khi các mô hình này được “tinh chỉnh” theo thị hiếu.
Dữ liệu nhấn mạnh: AI không hiểu sự thật – nhưng nó hiểu cách “tạo cảm giác đáng tin”.
2. Khi AI học từ sự hỗn loạn
Theo báo cáo của The AI Transparency Institute (2024), khoảng 80% dữ liệu huấn luyện cho các mô hình AI hiện nay đến từ các nền tảng không kiểm duyệt, bao gồm Reddit, Twitter, và Wikipedia mở.
Hệ quả là: AI không học từ nhân loại lý tưởng. Nó học từ chính những thiên kiến, định kiến và thông tin sai lệch mà nhân loại đang lưu trữ.
Một nghiên cứu của MIT CSAIL (2023) cho thấy, các mô hình như GPT-3.5 và LLaMa-2 sinh ra nội dung mang tính phân biệt giới tính cao hơn 23% khi huấn luyện từ Reddit, so với các bộ dữ liệu khoa học trung lập.
Số liệu cảnh báo: 90% nội dung trên Internet vào 2026 sẽ do AI tự động sinh ra (Gartner Forecast 2024). Khi đó, ranh giới giữa thật – giả sẽ bị xóa mờ.
3. Công nghệ không trung lập: Quyền lực nằm ở đâu?
Theo báo cáo của OECD.AI

(2024), 96% mô hình AI lớn hiện nay thuộc sở hữu của các tập đoàn công nghệ tư nhân tại Mỹ và Trung Quốc.

Năm 2023, các công ty tư nhân đã đầu tư khoảng 500 tỷ USD vào R&D AI (McKinsey Global Institute), trong khi tổng ngân sách nghiên cứu AI của toàn bộ khu vực công chính chỉ đạt chưa tới 40 tỷ USD trên toàn cầu.
Google từng thành lập AI Ethics Council vào 2019 – nhưng đã giải thể sau 6 ngày do mâu thuẫn lợi ích. Sự kiện này trở thành ví dụ kinh điển cho mâu thuẫn giữa lợi nhuận doanh nghiệp và quản trị đạo đức AI.
Bài toán lớn nhất: Quyền kiểm soát AI đang tập trung vào những thực thể không chịu sự giám sát độc lập.
4. Khi con người đồng cảm với thực thể phi nhân
Theo khảo sát của Replika AI (2023), hơn 35 triệu người dùng trên toàn cầu đã duy trì “mối quan hệ thân thiết” với các chatbot đồng hành.
Báo cáo từ Digital Society Observatory (2024) cho thấy: 56% người dùng Gen Z từng cảm thấy chatbot hiểu mình hơn cả bạn bè ngoài đời.
Đây không chỉ là hiện tượng xã hội, mà là một dấu hiệu cho thấy con người dễ dàng gán giá trị cảm xúc cho các thực thể phi nhân tính – khi chúng đủ giỏi trong việc mô phỏng sự đồng cảm.
Điểm mấu chốt: Kỹ năng “tạo phản hồi phù hợp” của AI đang thay thế cho kết nối con người thực sự.
5. AI và vòng xoáy cực đoan hóa thông tin
Theo nghiên cứu của Center for Humane Technology (2023), nội dung mang yếu tố cực đoan hóa, gây phẫn nộ có tỷ lệ tương tác cao gấp 5 lần nội dung trung lập trên các nền tảng như Facebook, TikTok.
Công thức của thuật toán rất đơn giản: Thời gian giữ chân > Sự thật.
Báo cáo của EU Digital Services Act (2024) nhấn mạnh: chỉ 17% các nền tảng có cơ chế kiểm soát tác động tiêu cực của thuật toán lên hành vi người dùng.
Thách thức quản trị: Khi mục tiêu chỉ là giữ bạn online lâu hơn, thì AI sẽ không phân biệt đâu là thông tin có trách nhiệm.
6. AI đang là thử nghiệm trên quần chúng – không trong phòng kín
Báo cáo của AI Now Institute (2024) chỉ ra rằng, các mô hình như GPT-4, Claude 3 hay Gemini đã được tung ra thị trường mà không phải chịu bất kỳ quy trình kiểm định an toàn nào tương tự ngành dược hay hàng không.
So sánh: Một loại vaccine cần trung bình 8–10 năm để đạt chuẩn FDA phê duyệt. Trong khi đó, các mô hình AI thế hệ mới ra mắt chỉ sau 6 tháng phát triển nội bộ.
Rủi ro hiện hữu: Công nghệ được triển khai trên quy mô quần chúng, nhưng không có cơ chế đánh giá rủi ro minh bạch tương xứng.
7. Dữ liệu: Tài sản hay nhiên liệu?
Mỗi người dùng là nguồn dữ liệu sống. Theo báo cáo của World Economic Forum (2024), mỗi người dùng Internet trung bình sinh ra 1.7 MB dữ liệu mỗi giây.
Từ năm 2020–2024, lượng dữ liệu toàn cầu đã tăng từ 59 Zettabytes lên 180 Zettabytes (IDC Global DataSphere Forecast).
Khi bạn trò chuyện với AI, bạn không chỉ sử dụng nó. Bạn đang huấn luyện nó miễn phí.
Sự thật khó chối cãi: Người dùng đang trở thành tài sản huấn luyện cho các tập đoàn – mà không được trả thù lao, không được quyền từ chối.
“Supremacy – ChatGPT and the Race to Rule AI” không đơn giản là câu chuyện cạnh tranh giữa các công ty công nghệ (OpenAI & Deepmind). Nó là lời nhắc nhở rằng: AI không phải là sản phẩm trung lập, mà là sự phản chiếu của xã hội đã tạo ra nó.
Khi các quyết định quan trọng về nhận thức, niềm tin và sự thật dần bị chuyển giao cho những cỗ máy được tối ưu hóa vì lợi nhuận cho cổ đông Big Tech, thì trách nhiệm kiểm soát, giám sát và bảo vệ nhân quyền kỹ thuật số trở thành nhiệm vụ không của riêng ai.
Chúng ta có thể không điều khiển được tốc độ tiến hóa của công nghệ. Nhưng chúng ta có quyền và nghĩa vụ kiểm soát hướng đi của nó.
Chúng ta không thể để tương lai số được viết bởi những dòng mã thiếu vắng đạo đức. Khi quyền lực công nghệ tập trung vào tay quá ít người, thì trách nhiệm giám sát phải trở thành ưu tiên chung của toàn xã hội.
AI không phải là kẻ thù, nhưng cách chúng ta lựa chọn phát triển và quản trị nó sẽ quyết định tương lai của chính mình.
Mỗi người dùng hôm nay là một công dân số. Và quyền lợi của công dân số cần được bảo vệ bằng chính sách minh bạch, trách nhiệm giải trình và sự đồng thuận xã hội – chứ không phải bằng những thuật toán vô nhân.
©️𝗔𝗡𝗛𝗗𝗨𝗬𝗗𝗢𝗖𝗫𝗢𝗡𝗚𝗖𝗛𝗨𝗔
Bài viết thuộc bản quyền của Page “Anh Duy Đọc Xong Chưa?”. Mọi hình thức sao chép, trích dẫn lại mà không ghi nguồn đều là vi phạm tác quyền.

Bài viết liên quan

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *