Những mối nguy hiểm do trí tuệ nhân tạo gây ra là gì? – Ts. Phạm Đình Bá

Share this post on:

09/5/2023

Theo nguồn lề đảng, “theo Sở Thông tin Truyền thông thành phố, trong một khảo sát tại 1.000 doanh nghiệp trên địa bàn thành phố, thì gần một nửa số doanh nghiệp đã bước đầu ứng dụng ChatGPT vào một số công việc, quản lý thay thế cho đội ngũ nhân sự hiện tại. Đơn cử như, ChatGPT đã thay các nhân viên viết mã, sáng tạo quảng cáo, tạo nội dung,…” [1]

Đây là điều đáng quan ngại tuy rằng mức độ dối trá trong cái gọi là “khảo sát” từ cái gọi là “Sở Thông tin” ở Sài gòn thì không lường được.

Tác giả Nguyễn Ngọc Duy Hân trên trang Việt Nam Thời Báo nhận định là “Ngày nay với khoa học kỹ thuật ngày một tân tiến, thật và ảo rất khó phân biệt.” [2]

Thế thì những mối lo ngại ở bên ngoài về trí tuệ nhân tạo và ứng dụng của các hệ thống triển khai thì ra sao?

Vào cuối tháng 3/2023, hơn 1.000 nhà lãnh đạo công nghệ, nhà nghiên cứu và các chuyên gia khác làm việc trong và xung quanh trí tuệ nhân tạo (AI) đã ký một bức thư ngỏ cảnh báo rằng các công nghệ AI có “những rủi ro sâu sắc đối với xã hội và nhân loại.” [3]

 “Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được,” bức thư viết.

Bức thư, hiện có hơn 27.000 chữ ký, rất ngắn gọn. Ngôn ngữ của nó rất rộng. Bức thư thể hiện mối quan tâm ngày càng tăng giữa các chuyên gia AI rằng các hệ thống mới nhất, đáng chú ý nhất là GPT-4, có thể gây hại cho xã hội. Họ tin rằng các hệ thống trong tương lai sẽ còn nguy hiểm hơn.

Một số rủi ro đã đến. Những rủi ro khác sẽ không xảy trong nhiều tháng hoặc nhiều năm. Vẫn còn những rủi ro khác hoàn toàn là giả thuyết.

Yoshua Bengio, giáo sư và AI nhà nghiên cứu tại Đại học Montreal ở Canada nói “Khả năng của chúng tôi để hiểu những gì có thể xảy ra với AI là rất hạn chế. Vì vậy, chúng ta cần phải rất cẩn thận.”

Tại sao họ lo lắng?

Tiến sĩ Bengio có lẽ là người quan trọng nhất đã ký bức thư.

Làm việc với hai học giả khác — Geoffrey Hinton ở Đại học Toronto và Google (vừa từ chức ở Google), và Yann LeCun, hiện là giám đốc AI nhà khoa học tại Meta, chủ sở hữu của Facebook – Tiến sĩ Bengio đã dành bốn thập kỷ qua để phát triển công nghệ điều khiển các hệ thống như GPT-4. 

Năm 2018, ba nhà nghiên cứu nầy đã nhận được Giải thưởng Turing, thường được gọi là “Giải thưởng Nobel về điện toán” cho công trình nghiên cứu của họ về mạng lưới thần kinh nhân tạo.

Mạng thần kinh nhân tạo là một hệ thống điện toán tự học các kỹ năng bằng cách phân tích dữ liệu. Khoảng 5 năm trước, các công ty như Google, Microsoft và OpenAI đã bắt đầu xây dựng các mô hình thần kinh nhân tạo bằng cách đào tạo các hệ thống nầy để chúng tự học các kỹ năng từ một lượng lớn văn bản kỹ thuật số. 

Các mô hình được đào tạo bằng cách để chúng tự học từ cơ sở dữ liệu văn bản từ internet, bao gồm 570 gigabyte dữ liệu khổng lồ thu được từ sách, văn bản web, Wikipedia, bài báo và các phần viết khác trên internet. (Ghi chú: 570 gigabyte là khoảng dưới 1 triệu cuốn sách).

Các mô hình thần kinh nhân tạo nầy được gọi là mô hình ngôn ngữ lớn, hay “large language models”, viết tắc là LLM. 

Bằng cách xác định các mẫu trong văn bản đó, LLM học cách tự tạo văn bản, bao gồm các bài đăng trên blog, bài thơ và chương trình máy tính. LLM thậm chí có thể tiếp tục một cuộc trò chuyện.

Công nghệ này có thể giúp các lập trình viên máy tính, nhà văn và những người lao động khác tạo ra ý tưởng và thực hiện mọi việc nhanh hơn. Nhưng Tiến sĩ Bengio và các chuyên gia khác cũng cảnh báo rằng LLM có thể học những hành vi không mong muốn và bất ngờ.

Các hệ thống này có thể tạo ra thông tin không trung thực, sai lệch và độc hại. Các hệ thống như GPT-4 hiểu sai sự thật và bịa đặt thông tin, một hiện tượng gọi là “ảo giác”.

Các công ty đang cố giải quyết những vấn đề về ảo giác này. Nhưng các chuyên gia như Tiến sĩ Bengio lo lắng rằng khi các nhà nghiên cứu làm cho các hệ thống này mạnh hơn, chúng sẽ tạo ra những rủi ro mới.

Rủi ro ngắn hạn: Thông tin sai lệch

Bởi vì các hệ thống này cung cấp thông tin có vẻ như hoàn toàn tin cậy, có thể là một thử thách rất to để phân biệt sự thật khỏi hư cấu khi sử dụng chúng. Các chuyên gia lo ngại rằng mọi người sẽ dựa vào các hệ thống này để được tư vấn y tế, hỗ trợ tâm lý và thông tin thô từ những hệ thống nầy để đưa ra các quyết định với hậu quả bất định và khôn lường.

Subbarao Kambhampati, giáo sư khoa học máy tính tại Đại học bang Arizona, cho biết: “Không có gì đảm bảo rằng các hệ thống này sẽ chính xác trong bất kỳ nhiệm vụ nào bạn giao cho chúng.”

Các chuyên gia cũng lo lắng rằng mọi người sẽ lạm dụng các hệ thống này để truyền bá thông tin sai lệch. Bởi vì các hệ thống có thể trò chuyện theo cách của con người, nên các hệ thống nầy có sức thuyết phục đáng ngạc nhiên.

Tiến sĩ Bengio cho biết: “Hiện tại chúng tôi có các hệ thống có thể tương tác với chúng tôi thông qua ngôn ngữ tự nhiên và chúng tôi không thể phân biệt được thật giả.”

Rủi ro trung hạn: Mất việc làm

Các chuyên gia lo lắng rằng AI có thể thay thế người làm việc. Hiện tại, các công nghệ như GPT-4 có xu hướng bổ sung cho người làm việc. Nhưng công ty OpenAI phát triển công nghệ GPT-4 thừa nhận rằng các hệ thống trí tuệ nhân tạo có thể thay thế một số người làm, bao gồm cả những người kiểm duyệt nội dung trên internet.

Các hệ thống AI hiện nay vẫn chưa thể sao chép công việc của luật sư, kế toán hoặc bác sĩ. Nhưng các hệ thống nầy có thể thay thế các trợ lý pháp lý, trợ lý kế toán, trợ lý y tế và dịch giả.

Một bài báo được viết bởi các nhà nghiên cứu OpenAI ước tính rằng 80% lực lượng lao động Hoa Kỳ có thể có ít nhất 10% nhiệm vụ công việc của họ bị ảnh hưởng bởi LLM và 19% công nhân có thể thấy ít nhất 50% nhiệm vụ của họ có thể bị thay thế bởi AI.

Oren Etzioni, giám đốc điều hành sáng lập của Allen Institute for AI, một phòng thí nghiệm nghiên cứu ở Seattle, cho biết: “Có dấu hiệu cho thấy các công việc lặp đi lặp lại sẽ biến mất.

Rủi ro dài hạn: Mất kiểm soát

Một số người đã ký bức thư cũng tin rằng trí tuệ nhân tạo có thể vượt khỏi tầm kiểm soát của con người hoặc hủy diệt loài người. Nhưng nhiều chuyên gia cho rằng điều đó đã bị thổi phồng quá mức.

Bức thư được viết bởi một nhóm từ Viện Tương lai của Cuộc sống, một tổ chức chuyên khám phá những rủi ro hiện hữu đối với nhân loại. Họ cảnh báo rằng vì hệ thống AI thường tự học hành vi không mong muốn từ lượng dữ liệu khổng lồ mà chúng phân tích, chúng có thể gây ra các sự cố nghiêm trọng mà con người không muốn.

Các người ký tên trong thư lo lắng rằng khi các công ty cắm LLM vào các dịch vụ internet, các hệ thống này có thể có được những năng lực không lường trước được vì chúng có thể viết mã máy tính của riêng mình. Những chứng nhân nầy nói rằng các nhà phát triển sẽ tạo ra rủi ro mới nếu họ cho phép các hệ thống AI có thể điều khiển và chạy mã riêng của chúng.

Anthony Aguirre, nhà vật lý học và vũ trụ học lý thuyết tại Đại học California, Santa Cruz và là người đồng sáng lập Viện Tương lai của Cuộc sống.

“Nếu bạn chọn một kịch bản ít có khả năng xảy ra hơn – nơi mọi năng lực từ các hệ thống AI trở thành hiện thực, nơi không có sự quản lý thực sự, nơi các hệ thống này trở nên mạnh mẽ hơn chúng ta nghĩ – thì mọi thứ sẽ trở nên thực sự điên rồ,” ông nói.

Tiến sĩ Etzioni cho biết nói về rủi ro hiện sinh như thế chỉ là giả thuyết. Nhưng ông cho biết những rủi ro khác – đáng chú ý nhất là thông tin sai lệch – không còn là suy đoán nữa.

“Bây giờ chúng tôi có một số vấn đề thực sự,” ông ấy nói. “Những rủi ro về thông tin sai lệch là trung thực. Các rủi ro nầy yêu cầu một số phản ứng có trách nhiệm. Các phản ứng đó có thể những quy định và pháp luật về làm sao xử dụng các hệ thống AI.”

Ts. Phạm Đình Bá


Nguồn: 

1. Nhân dân. Cơ hội và thách thức khi ứng dụng ChatGPT vào quản lý nhà nước. 13/03/2022; Available from: https://nhandan.vn/co-hoi-va-thach-thuc-khi-ung-dung-chatgpt-vao-quan-ly-nha-nuoc-post742757.html.

2. VNTB. Thật và Ảo. 23/03/2023; Available from: https://vietnamthoibao.org/vntb-that-va-ao/.

3. The New York Times. What Exactly Are the Dangers Posed by A.I.? 01/05/2023; Available from: https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt.html.