22/11/2024 | 00:18 GMT+7 | Điện thoại: 034 39429756 | Email: hososukien@gmail.com

Tương lai xa vời của những nhà báo - robot

Nguyễn Sơn
Tương lai xa vời của những nhà báo - robot tác phẩm của các nhà báo - robot không thể có những cảm xúc đôi khi làm nên tiếng vang của bài báo_Ảnh minh họa
Trí tuệ nhân tạo đang bùng lên và có vẻ lấn lướt công việc của các nhà báo. Tuy nhiên, ngày mà nó đạt được đỉnh cao của nghề báo chí còn ở một tương lai rất xa.

Có những giới hạn nhất định

Từ hơn chục năm trước, phiên bản điện tử của tạp chí Forbes (Mỹ) đã đăng loạt bài báo của tác giả Narrative Science. Tác giả này không phải là con người, mà là một công nghệ mới được phát triển bởi công ty cùng tên có trụ sở tại Chicago. Thuật toán của các nhà lập trình của công ty này cho phép máy tính có thể chuyển những dữ liệu khô khan trở thành những bài báo thể thao, tài chính với tốc độ chỉ vài giây. Có lẽ đó là nhà báo - robot đầu tiên trên thế giới. 

Tuy nhiên, các bài báo đó bị độc giả chê là tẻ nhạt, thô kệch và khả năng phân tích hết sức ngô nghê, dẫn tới lượng tương tác thấp hơn nhiều so với kỳ vọng của tạp chí kinh doanh này.

Khi Open AI được Microsoft tài trợ khoảng 10 tỷ USD, ra mắt ChatGPT vào tháng 11-2022 với khả năng có thể hiểu được nội dung câu hỏi, nhanh chóng đưa ra câu trả lời lưu loát thì người dùng vô cùng thán phục và trở thành hiện tượng công nghệ của năm 2022 cùng các năm sau đó. Theo Sensor Tower, ChatGPT cán mốc 100 triệu người dùng chỉ sau 2 tháng (so với TikTok mất 9 tháng và Instagram mất hơn 2 năm).

Không quá khi nói ChatGPT đã mở ra một chương mới trong lịch sử báo chí thế giới. Các bài báo nhờ ChatGPT được sản xuất ồ ạt với tốc độ chớp nhoáng đã kéo nhuận bút, vốn đã rất ít ỏi, của hàng loạt tờ báo và trang thông tin điện tử tổng hợp xuống tới mức không thể thấp hơn. 

Cũng nhờ ChatGPT, tương tác với các bài báo thông qua Facebook và các trang mạng xã hội khác lên cao chưa từng thấy. Không ít nhà báo Việt Nam thích thú với hiện tượng này rồi chợt nghĩ “ngày nhà báo đi ăn mày”, như cách đùa của một số phóng viên báo chí, đã không còn xa nữa.

Nhưng sự hào hứng qua nhanh. Người ta chợt nhận ra, báo chí tự động hoàn toàn vô cảm. Nó làm mất đi sự thú vị của tác phẩm báo chí do con người tự tay viết. ChatGPT có những giới hạn nhất định, nó không thể hiểu được mọi câu hỏi hoặc tình huống dựa trên cảm xúc của con người, không có nhạy cảm chính trị, không có lý tưởng, không có tính nhân văn và hoàn toàn không có trách nhiệm xã hội.

Bên cạnh đó, nguy cơ dùng dữ liệu và tin giả rất cao. Hơn ai hết, ChatGPT lập tức coi những trích dẫn lấy từ trên các trang mạng xã hội, cũng như công cụ tìm kiếm Internet là chân thực. Hệ quả tất yếu của việc này là tin giả, kiến thức giả được nhân lên với tốc độ chóng mặt, càng củng cố thêm vị thế của tin giả vượt trội so với tin thật, tác động tiêu cực đến nhận thức và tâm lý xã hội. 

Chưa hết, các bài báo đăng tin giả mạo có chủ ý là nguy cơ ngày càng tăng trong một thế giới chịu ảnh hưởng của báo chí trí tuệ. Chẳng hạn “vụ đánh bom Lầu Năm Góc” tháng 5-2023 lan truyền trên Twitter đã khiến thị trường chứng khoán Mỹ mất 500 tỷ USD, trước khi mọi người biết đấy là tin giả.

Không thể “cấy” cảm xúc vào một cỗ máy

Sự “thiếu nhân văn” của báo chí tự động đã gióng lên hồi chuông cảnh tỉnh cho các nhà sản xuất và dư luận xã hội. Hồi tháng trước, Google - công ty con của tập đoàn Alphabet - đã cho ra mắt phần mềm chatbot AI Bard và cam kết triển khai công nghệ này một cách có đạo đức. 

Ông Sundar Pichai - Giám đốc điều hành Google - thông báo với báo chí rằng, tất cả các ứng dụng trí tuệ nhân tạo của hãng sẽ sử dụng hình mờ và siêu dữ liệu để mọi người biết rõ đâu là nội dung do trí tuệ nhân tạo sản xuất, đâu là nội dung do con người tạo ra.

Tuy nhiên, các nhà phát triển trí tuệ nhân tạo còn muốn đi xa hơn. “Nhân chi sơ tính bản ác”, nhưng chẳng phải chính giáo dục đã làm mờ đi “tính ác” của con người đó sao?” - một sinh viên ngành trí tuệ nhân tạo Trung Quốc - nói. 

Theo sinh viên này, nhóm của anh do một giáo sư đại học có tiếng chủ trì đang tìm cách nạp những dữ liệu nhân văn như triết học, lịch sử, mỹ học vào bộ dữ liệu của các mô hình trí tuệ nhân tạo. Nhóm muốn tạo ra một ứng dụng trí tuệ nhân tạo mới không chỉ thông minh, mà còn có đầy đủ kiến thức nhân văn tương tự như ở con người.

Mikhailov - một nhà nghiên cứu trí tuệ nhân tạo có tên tuổi ở Nga - lại cho rằng, vấn đề không phải ở dữ liệu: “dù có nạp bao nhiêu kiến thức nhân văn cho ứng dụng trí tuệ nhân tạo đi nữa thì nó vẫn lại chuyển đổi tất cả các kiến thức quý giá đó thành những số 0 và số 1. Kiến thức không tạo ra cảm xúc. Ta không thể “cấy” cảm xúc vào một cỗ máy vô cảm. Nó càng thông minh thì lại càng không thể”. 

Ông cho biết, nhóm của ông đã dành nhiều thời gian nghiên cứu việc nuôi dạy chó, mèo. “Đó là cả một công nghệ tuyệt vời. Người ta dạy những con vật nuôi giàu cảm xúc biết cách ứng xử như những người thông minh. Tức là “cấy” trí tuệ vào chúng. Với máy tính, chúng tôi muốn làm điều ngược lại: “cấy” cảm xúc vào thực thể thông minh ấy. Tuy nhiên, thành tích có thể nói là zero. Giờ đây chúng tôi quan tâm nhiều hơn đến khả năng “làm đau” máy tính. Với trí tuệ của mình, máy tính dễ dàng đánh giá được mức độ thiệt hại mà nó phải chịu mỗi khi làm sai và sẽ “rút kinh nghiệm”. Bằng cách đó, chúng tôi hy vọng sẽ tạo ra được những ứng dụng thông minh “sợ sai” để từ đó có ý thức trách nhiệm với xã hội loài người. Đó có thể chưa được gọi là nhân văn, nhưng làm được như thế, chúng tôi cũng đã đi được một nửa con đường rồi”.

Trong lúc các nhà nghiên cứu tranh luận về khả năng “dạy” tính nhân văn cho trí tuệ nhân tạo, các nhà biên tập lại quan tâm nhiều hơn đến chất lượng các bài báo chủ chốt của họ. Theo những biên tập viên nhiều kinh nghiệm, các nhà báo - robot còn lâu mới thay thế được các nhà báo “ăn bánh mì”. 

Trước hết, tác phẩm của các nhà báo - robot không thể có những cảm xúc đôi khi làm nên tiếng vang của bài báo. Nó cũng không có những nét riêng, văn phong riêng độc đáo làm cho bạn đọc yêu thích tờ báo của họ. Thêm nữa, nhà báo - robot không có tính “mẫn cảm nghề nghiệp”, khả năng tiên liệu diễn tiến tình hình, điều không khó thấy ở các nhà báo tên tuổi.

“Dạy” cho trí tuệ nhân tạo có cảm xúc hoặc có tư duy tương tự cảm xúc đã khó, “dạy” cho nó biết vượt lên trên sự tầm thường, đạt tới sự độc đáo của nghề báo còn khó hơn rất nhiều nữa. Vì thế, với niềm tin chính đáng “ngày nhà báo đi ăn mày” còn rất xa vời, có thể khẳng định dạy trí tuệ nhân tạo đạt tới những đỉnh cao ấy là không thể./.

Chuyên mục: Bên lề sự kiện