Nhà báo tự do bị sa thải vì dùng AI viết bài đạo văn từ bài đánh giá sách cũ
Hai vụ việc gần đây trong làng báo chí quốc tế đã gióng lên hồi chuông cảnh tỉnh: sự tiện lợi của trí tuệ nhân tạo có thể biến thành thảm họa nếu người dùng thiếu hiểu biết. Từ việc đạo văn vô tình đến bịa đặt thông tin, ranh giới giữa hỗ trợ và phá hoại thật mong manh.
Vụ việc tại New York Times: AI "đi săn" trên mạng
Alex Preston, một nhà báo tự do, nhận nhiệm vụ viết bài đánh giá cho cuốn tiểu thuyết 'Watching Over Her' của Jean-Baptiste Andrea. Để hoàn thành công việc nhanh chóng, anh đã sử dụng một công cụ AI như một trợ lý viết lách. Điều Preston không hề hay biết là công cụ này đã tự động lên mạng, tìm kiếm và sao chép những đoạn văn gần như nguyên văn từ một bài phê bình trước đó của Christobel Kent đăng trên tờ The Guardian.
Bài viết có dấu hiệu đạo văn đã được Preston nộp cho tòa soạn New York Times và xuất bản. Chỉ đến khi một độc giả tinh mắt phát hiện ra sự trùng lặp đáng ngờ, sự thật mới được làm sáng tỏ. Hậu quả là tờ báo danh tiếng này đã ngay lập tức chấm dứt hợp tác với Preston.
Tôi vô cùng xấu hổ và đã phạm một sai lầm nghiêm trọng.
Trong tuyên bố gửi The Guardian, Preston đã thừa nhận như vậy. Sự việc cho thấy anh có lẽ chỉ nghĩ mình đang dùng một công cụ hỗ trợ viết lách thông thường, chứ không ngờ nó có khả năng lùng sục web và sao chép nội dung có sẵn. Đây là một lỗ hổng kiến thức cơ bản về cách thức hoạt động của các công cụ AI hiện đại.
Nhận định quan trọng: Vấn đề cốt lõi không nằm ở việc sử dụng AI, mà nằm ở việc sử dụng nó trong sự thiếu hiểu biết. Nhiều người dùng xem AI như một 'hộp đen' và giao phó niềm tin mù quáng.
Sự cố tại Ars Technica: ChatGPT bịa đặt trích dẫn
Chưa đầy một tháng trước, một sự cố tương tự nhưng theo hướng khác đã xảy ra tại tạp chí công nghệ Ars Technica. Một biên tập viên đã đăng một bài báo có chứa những trích dẫn được cho là từ blog của một nhà phát triển. Tuy nhiên, những trích dẫn này hoàn toàn do ChatGPT bịa ra.
Nguyên nhân được xác định là nhà phát triển đó đã vô tình chặn ChatGPT truy cập vào trang web của mình. Khi được yêu cầu tóm tắt nội dung từ một URL cụ thể, do không thể đọc được nguồn thực tế, mô hình ngôn ngữ này đã 'suy đoán' và tạo ra những trích dẫn nghe có vẻ hợp lý dựa trên ngữ cảnh của câu lệnh. Người biên tập viên, không kiểm tra lại nguồn gốc, đã tin tưởng và xuất bản thông tin sai lệch này.
Cả hai trường hợp đều có điểm chung: người sử dụng đều không thực sự hiểu công cụ AI của họ hoạt động như thế nào. Họ giao phó sự tin tưởng một cách mù quáng mà thiếu đi thao tác kiểm chứng cơ bản nhất của nghề báo.
Thông tin cần lưu ý: Các mô hình ngôn ngữ lớn (LLM) như ChatGPT không 'hiểu' thông tin theo nghĩa con người. Chúng dự đoán từ ngữ tiếp theo dựa trên mẫu dữ liệu đã học. Khi không có dữ liệu thực, chúng có xu hướng 'bịa' (hallucinate) để đáp ứng yêu cầu.
Bài học về trách nhiệm và hiểu biết công nghệ
Các vụ việc này không đơn thuần là câu chuyện về sự cẩu thả. Chúng phản ánh một vấn đề sâu sắc hơn: sự thiếu hụt kiến thức nền tảng về AI trong một bộ phận người làm nội dung.
Thực tế, phần lớn các công cụ viết lách bằng AI hiện nay hoạt động dựa trên nguyên lý dự đoán từ ngữ tiếp theo. Một số công cụ có tích hợp chức năng duyệt web (web browsing), cho phép chúng tìm kiếm thông tin thời gian thực. Tuy nhiên, chúng không có khái niệm về 'trích dẫn' hay 'đạo văn' theo cách con người hiểu.
Việc không hiểu điều này dẫn đến hai rủi ro chính:
- Đạo văn vô ý: Công cụ có thể sao chép nguyên văn hoặc gần nguyên văn từ nguồn mà nó truy cập được.
- Bịa đặt thông tin (Hallucination): Khi không tìm thấy thông tin, AI có xu hướng 'bịa' ra câu trả lời nghe có vẻ thuyết phục.
Điểm Chính Cần Nhớ
- AI là công cụ, không phải đồng nghiệp có trách nhiệm. Người dùng phải chịu trách nhiệm cuối cùng.
- Hiểu biết cơ bản về cách AI hoạt động là điều bắt buộc để sử dụng an toàn.
- Kiểm chứng thông tin (fact-checking) từ AI là bước không thể bỏ qua, đặc biệt với số liệu và trích dẫn.
Điều này có nghĩa gì với bạn?
Dù bạn là nhà báo, người viết nội dung, sinh viên hay chỉ là người thỉnh thoảng sử dụng AI để hỗ trợ công việc, những câu chuyện trên đều mang đến bài học quý giá.
Đừng ủy thác trách nhiệm cho AI. Hãy luôn nhớ, AI là một công cụ hỗ trợ, không phải một đồng nghiệp có trách nhiệm pháp lý. Bạn là người chịu trách nhiệm cuối cùng cho mọi nội dung mình xuất bản hoặc nộp. Việc đổ lỗi cho 'con bot' là không thể chấp nhận được trong môi trường chuyên nghiệp.
Hiểu rõ công cụ bạn đang dùng. Trước khi sử dụng bất kỳ công cụ AI nào cho công việc quan trọng, hãy dành thời gian tìm hiểu cách nó hoạt động. Nó có chức năng tìm kiếm web không? Nó được huấn luyện trên dữ liệu nào? Nó có xu hướng 'bịa' thông tin không? Kiến thức này là vũ khí để bạn sử dụng công cụ một cách an toàn và hiệu quả.
Kiểm tra gấp đôi, xác minh gấp ba. Quy tắc vàng của báo chí - fact-checking (kiểm chứng thông tin) - càng trở nên quan trọng hơn trong kỷ nguyên AI. Bất kỳ thông tin nào từ AI mang lại, đặc biệt là số liệu, trích dẫn, hoặc tuyên bố, đều phải được đối chiếu với nguồn gốc gốc. Đừng bao giờ xuất bản một thứ gì chỉ vì 'AI nói vậy'.
Kỷ nguyên AI trong sáng tạo nội dung mới chỉ bắt đầu. Những vụ việc như thế này là những hồi chuông cảnh tỉnh cần thiết, nhắc nhở chúng ta rằng công nghệ dù mạnh mẽ đến đâu cũng không thể thay thế được sự tỉnh táo, hiểu biết và trách nhiệm của con người.