8 nguy cơ trí tuệ nhân tạo có thể gây ra với loài người
Gia Ngọc
Ông hoàng vật lý Stephen Hawking nói: “sự phát triển của trí tuệ nhân tạo có thể đánh dấu sự kết thúc của loài người”. Elon Musk - người sáng lập Tesla và SpaceX - phát biểu tại Hội nghị công nghệ SXSW: “ AI làm tôi sợ chết khiếp. Nó có khả năng làm được nhiều hơn những gì mà hầu hết mọi người đều biết và tốc độ cải thiện là theo cấp số nhân”. Những gì chúng ta chứng kiến mới chỉ là giai đoạn đầu của AI. Vậy, vì sao những bộ óc vĩ đại của loài người lại e ngại AI đến như vậy?
Lấy mất việc làm của con người
AI đang được áp dụng nhiều trong các ngành như tiếp thị, chăm sóc sức khỏe, sản xuất. Dự kiến AI sẽ chiếm mất 85 triệu việc làm từ năm 2020 đến năm 2025, trong đó việc làm của các lao động người da màu đặc biệt dễ bị tổn thương. “Lý do chúng ta có tỷ lệ thất nghiệp thấp phần lớn là do nền kinh tế này tạo ra các công việc lương thấp trong lĩnh vực dịch vụ”, nhà tương lai học Martin Ford nói. “Tôi không nghĩ điều đó sẽ tiếp tục”. Khi robot AI trở nên thông minh hơn và khéo léo hơn, các công việc tương tự sẽ cần ít nhân lực hơn. Mặc dù AI cũng cho phép tạo ra tới 97 triệu việc làm mới vào năm 2025, nhưng nhiều lao động sẽ không có các kỹ năng cần thiết cho các vai trò kỹ thuật này và có thể bị bỏ lại phía sau.
“Nếu bạn đang lật bánh mì kẹp thịt ở McDonalds, mà công việc mới đòi hỏi nhiều kỹ năng khác phải qua đào tạo, hoặc thậm chí có thể là năng khiếu như giao tiếp, hoặc sức sáng tạo thực sự mạnh mẽ, thì bạn có đáp ứng nổi không? Đó là những thứ mà ít nhất cho đến nay, AI còn chưa giỏi lắm”. Ngay cả những ngành nghề yêu cầu bằng đại học hay sau đại học cũng không tránh khỏi sự đe dọa của AI. Chiến lược gia công nghệ Chris Messina đã chỉ ra, AI sẽ tiếp quản các lĩnh vực như luật, kế toán. AI đã và đang có tác động đáng kể đến y học. Messina phân tích: “hãy nghĩ về sự phức tạp của các hợp đồng. Các luật sư phải đọc qua rất nhiều thông tin, hàng trăm hoặc hàng nghìn trang dữ liệu và tài liệu, nên rất dễ bị bỏ sót. AI có khả năng kết hợp và cung cấp một cách toàn diện hợp đồng tốt nhất có thể. AI có lẽ sẽ thay thế rất nhiều luật sư”.
Thao túng xã hội bằng các thuật toán AI
Một báo cáo năm 2018 đã đánh giá khả năng lạm dụng AI thao túng xã hội là một trong những mối nguy hiểm hàng đầu của trí tuệ nhân tạo. Mối lo ngại này đã trở thành hiện thực: Ferdinand Marcos, Jr. đã sử dụng “đội quân troll TikTok” để giành phiếu bầu của những người Philippines trẻ tuổi trong cuộc bầu cử năm 2022. Thuật toán AI của TikTok bị nghi ngờ về khả năng bảo vệ người dùng khỏi các nội dung nguy hiểm và sai lệch.
Các vụ tin tức deep-fake (tin giả sử dụng công nghệ tinh vi thay thế hình ảnh trong các bức ảnh và video) đang ngày càng nhiều. Công nghệ tạo điều kiện cho kẻ xấu lan truyền các tin tức giả, sai lệch, tạo ra các kịch bản ác mộng mà nhiều người tiếp nhận gần như không thể phân biệt được thật giả. Martin Ford nói: “không ai biết cái gì là thật và cái gì không. Thực tế đã xuất hiện tình huống bạn thực sự không thể tin vào mắt và tai của chính mình; bạn không thể dựa vào những thứ có thể được coi là bằng chứng tốt nhất”.
AI giám sát xã hội
Martin Ford còn cảnh báo về cách AI ảnh hưởng xấu đến quyền riêng tư và bảo mật. Một ví dụ là việc Trung Quốc sử dụng công nghệ nhận diện trong văn phòng, trường học và các địa điểm khác. Bằng cách này, nhà nước có thể thu thập đủ dữ liệu để giám sát các hoạt động, mối quan hệ và quan điểm chính trị của một người. Một ví dụ khác là các sở cảnh sát Mỹ áp dụng những thuật toán để dự đoán nơi tội phạm sẽ xảy ra. Các thuật toán này bị ảnh hưởng bởi tỷ lệ bắt giữ, do đó nó gây ảnh hưởng nặng nề đến cộng đồng người da màu. Thuật toán gợi ý cho cảnh sát tăng mức kiểm soát đến độ quá mức với các cộng đồng đó. Người ta phải đặt ra câu hỏi liệu có thể ngăn chặn việc biến AI thành vũ khí độc đoán hay không, và liệu có cần thiết đặt ra các hạn chế với nó?
AI tạo ra thành kiến
Phát biểu với tờ New York Times, Giáo sư khoa học máy tính của Princeton, Olga Russakovsky, cho biết AI tạo ra sự thiên vị vượt xa cả giới tính và chủng tộc. Ngoài dữ liệu và sai lệch thuật toán (cái sau có thể “khuếch đại” cái trước), AI được phát triển bởi con người, mà con người vốn đã có thành kiến. Russakovsky giải thích: “các nhà nghiên cứu về AI chủ yếu là nam giới, xuất thân từ một số chủng tộc nhất định, lớn lên ở các khu vực kinh tế - xã hội cao, chủ yếu là những người không bị khuyết tật. Vì vậy, thật khó để suy nghĩ rộng rãi về các vấn đề thuộc các giới khác nhau”.
Kinh nghiệm hạn chế của những người tạo AI có thể giải thích tại sao AI nhận dạng giọng nói thường không hiểu một số phương ngữ và giọng nhất định, hoặc tại sao các công ty không xem xét hậu quả của việc một chatbot mạo danh những người nổi tiếng trong lịch sử.
AI gia tăng bất bình đẳng kinh tế - xã hội
Trong tình trạng mất việc làm nói chung do AI gây ra cũng tồn tại sự bất bình đẳng, cho thấy những thành kiến giai cấp trong cách ứng dụng AI. Những công nhân cổ xanh thực hiện các công việc thủ công bị giảm lương tới 70% do áp dụng tự động hóa. Trong khi đó, lao động cổ cồn trắng hầu như không bị ảnh hưởng, thậm chí một số người còn được hưởng mức lương cao hơn.
AI bằng cách nào đó đã vượt qua các ranh giới xã hội hoặc tạo ra nhiều việc làm hơn, nhưng đó chưa phải bức tranh hoàn chỉnh về các tác động của nó. Điều quan trọng là phải tính đến sự khác biệt dựa trên chủng tộc, đẳng cấp. Mặt khác, rõ ràng nhóm người hiểu rõ AI sẽ thu được lợi ích nhiều hơn, nhưng với hệ quả gây thiệt hại cho những người khác, khiến nhóm khác trở nên khó khăn hơn.
Đạo đức bị suy giảm
Ngay cả các nhà lãnh đạo tôn giáo cũng đang gióng lên hồi chuông cảnh báo về những cạm bẫy kinh tế - xã hội tiềm tàng của AI. Trong một cuộc họp ở Vatican năm 2019 có tiêu đề “Lợi ích chung trong thời đại kỹ thuật số”, Giáo hoàng Francis đã cảnh báo về khả năng của AI trong việc “lưu hành các ý kiến thiên vị và dữ liệu sai lệch” và nhấn mạnh những hậu quả sâu rộng của việc để công nghệ này phát triển mà không có sự giám sát hoặc hạn chế thích hợp. Giáo hoàng nói: “nếu cái gọi là tiến bộ công nghệ của nhân loại trở thành kẻ thù của lợi ích chung, điều này sẽ dẫn đến một sự thụt lùi đáng tiếc. Sẽ có một hình thức man rợ được quy định bởi luật kẻ mạnh nhất”.
Và cho dù có bao nhiêu người chỉ ra sự nguy hiểm của AI, chúng ta vẫn sẽ tiếp tục sử dụng nó nếu có tiền. “Tâm lý là, nếu chúng ta có thể làm điều đó, chúng ta nên thử nó, rồi chờ xem điều gì xảy ra”, Messina nói. “Và nếu chúng ta có thể kiếm tiền từ nó, chúng ta sẽ làm cả đống việc như thế”.
AI tạo ra vũ khí tự động nguy hiểm
Xưa nay, những tiến bộ công nghệ đều được khai thác cho mục đích chiến tranh. Với AI, một số người muốn ngăn chặn khả năng này trước khi quá muộn: trong một bức thư ngỏ năm 2016, hơn 30.000 cá nhân bao gồm cả các nhà nghiên cứu AI đã phản đối việc đầu tư vào vũ khí sử dụng AI. Bức thư có đoạn: “câu hỏi quan trọng đối với nhân loại ngày nay là nên bắt đầu một cuộc chạy đua vũ trang AI toàn cầu hay ngăn chặn nó bắt đầu. Nếu bất kỳ cường quốc quân sự nào đẩy mạnh phát triển vũ khí AI, một cuộc chạy đua vũ trang toàn cầu hầu như không thể tránh khỏi và điểm cuối của quỹ đạo công nghệ này là hiển nhiên: vũ khí tự động sẽ phổ biến như súng Kalashnikov trong tương lai”.
Dự đoán này đã trở thành hiện thực dưới dạng hệ thống vũ khí tự động, tự xác định vị trí và tiêu diệt mục tiêu. Do sự phổ biến của vũ khí mạnh và phức tạp, một số quốc gia hùng mạnh nhất thế giới đã góp phần vào một cuộc Chiến tranh lạnh công nghệ. Mối nguy hiểm sẽ còn lớn hơn nếu vũ khi rơi vào tay kẻ xấu. Tin tặc đã thành thạo nhiều loại tấn công mạng, vì vậy không khó để tưởng tượng một tác nhân độc hại xâm nhập vào hệ thống vũ khí tự động và gây ra chiến tranh.
Khủng hoảng tài chính do AI
Ngành tài chính là một trong những ngành dễ dàng đón nhận sự tham gia của công nghệ AI vào các quy trình giao dịch hằng ngày. Cũng vì vậy, giao dịch bằng thuật toán có thể sẽ là nguyên nhân gây ra cuộc khủng hoảng tài chính lớn tiếp theo. Mặc dù các thuật toán AI không bị tác động bởi phán đoán hoặc cảm xúc của con người, nhưng chúng cũng có thiếu sót do không tính đến bối cảnh, tính liên kết của thị trường và các yếu tố như lòng tin và nỗi sợ hãi của con người. Nhưng các thuật toán vẫn thực hiện hàng nghìn giao dịch với tốc độ chóng mặt, với mục tiêu bán sau vài giây để kiếm lợi nhuận nhỏ. Việc bán tháo hàng nghìn giao dịch có thể khiến các nhà đầu tư sợ hãi làm điều tương tự, dẫn đến sự cố đột ngột và thị trường biến động cực độ.
Các trường hợp như đã từng xảy ra như vụ Flash Crash (xảy ra trên thị trường tài chính Mỹ năm 2010) hay sự cố lỗi phần mềm trị giá 440 triệu USD tại tập đoàn Knight Capital năm 2012 là những lời nhắc nhở về những gì có thể xảy ra khi các thuật toán thỏa mãn giao dịch trở nên “điên cuồng”./.