AI có cần học đạo đức?
Tại khóa học về “Những nguyên tắc cơ bản của đạo đức” tổ chức mới đây, ông Đào Trung Thành, Phó Viện trưởng kiêm Chủ tịch Hội đồng Giảng viên Viện Công nghệ Blockchain và Trí tuệ nhân tạo (ABAII) nêu hai tình huống mà AI đưa ra lựa chọn. Một người đang lưu thông trên xe ô-tô tự lái trong điều kiện không có đèn đỏ, không có vạch qua đường cho người đi bộ. Bất ngờ có người băng qua đường, trong khi phanh xe đã hỏng. Hệ thống AI của xe đưa ra hai lựa chọn, đi thẳng và tông vào người đi bộ băng qua đường; hoặc bẻ lái lao lên vỉa hè và… chắc chắn đâm trúng hai người đang đi bộ trên vỉa hè.
Theo ông Đào Trung Thành, trong tình huống này, với những chuẩn mực đạo đức nhân văn đã được tạo dựng, con người sẽ có lựa chọn tốt nhất. Tuy nhiên, với AI, đây vẫn là vấn đề gây nhiều tranh cãi. Ông Thành chốt lại một ý gợi nhiều suy nghĩ: Lần đầu tiên trong lịch sử, có một thực thể tranh chấp trí tuệ với con người.
Được biết, tại các quốc gia phát triển, đạo đức AI hay sử dụng AI có trách nhiệm là chủ đề rất được quan tâm. Nhiều nước đã có cách tiếp cận cho doanh nghiệp những quy định, bộ đánh giá trong việc sử dụng AI có trách nhiệm. Đơn cử, Microsoft đã ra mắt hơn 30 công cụ AI có trách nhiệm, bao gồm đánh giá an toàn, bộ lọc nội dung và lá chắn nhắc nhở để phát hiện và quản lý rủi ro tấn công nội dung.
Theo các chuyên gia, các tập đoàn công nghệ cũng có cách hiểu về đạo đức AI khác nhau. Microsoft cho rằng, đạo đức AI là cách tiếp cận để phát triển, đánh giá và triển khai các hệ thống AI theo cách an toàn, đáng tin cậy và có trách nhiệm. Trong khi đó, Google lại xem xét tác động xã hội của sự phát triển và quy mô các công nghệ AI, gồm cả lợi ích và tác hại tiềm ẩn. Các doanh nghiệp hiện nay đều đang tập trung vào việc xây dựng công cụ bảo đảm AI hoạt động đúng với giá trị đạo đức, không gây hại cho xã hội và người dùng.
Luật hóa vấn đề sử dụng AI
Nhấn mạnh về vai trò, tầm quan trọng của sử dụng AI một cách có trách nhiệm, ông Phan Đức Trung, Chủ tịch Hiệp hội Blockchain Việt Nam cho rằng, việc xây dựng nguyên tắc đạo đức cho AI cần phù hợp bối cảnh thực tiễn và quy mô của từng tổ chức, triển khai theo từng giai đoạn, từ cơ bản đến nâng cao tùy thuộc vào mức độ phát triển của cơ sở.
Bà Trần Vũ Hà Minh, Thành viên Hội đồng Đạo đức tài sản số và Trí tuệ nhân tạo của ABAII cho rằng: Các doanh nghiệp chỉ mới dừng lại ở mức sử dụng, khai thác các tài nguyên, kiến thức mà trí tuệ cung cấp chứ chưa coi trọng vấn đề trách nhiệm với công cụ này. Vì thế, việc tổ chức các khoá học về đạo đức AI là cần thiết để nhằm hướng tới xây dựng nguồn nhân lực phát triển AI có trách nhiệm cho Việt Nam.
Chung quan điểm, ông Nguyễn Trần Minh Quân, Giám đốc Pháp chế Hiệp hội Blockchain Việt Nam cũng đề cập đến các tiêu chuẩn Đạo đức AI của UNESCO và nhiều tổ chức khác. Theo đó, khi AI đang được triển khai một cách rộng khắp trên toàn cầu, nhiều tổ chức và doanh nghiệp lại gặp rắc rối do thiếu sự chuẩn bị cần thiết về đạo đức và quản trị rủi ro. Điều này được ví như việc chúng ta nỗ lực chữa cháy sau khi ngọn lửa đã bùng phát thay vì chủ động thiết lập hệ thống phòng cháy, chữa cháy từ đầu. Các tổ chức cần chủ động triển khai lộ trình tuân thủ ngay từ bây giờ, gồm các bước như: Tạo một danh mục AI; đánh giá rủi ro của các công cụ AI; bảo đảm có sự chấp thuận từ cấp cao nhất; thực hiện phân tích thực trạng hiện tại và các yêu cầu pháp lý, từ đó xác định lộ trình cải thiện phù hợp…
Các bộ, ngành đang xây dựng dự thảo Luật Công nghiệp công nghệ số, trong đó nhấn mạnh các nguyên tắc đạo đức, bình đẳng và công bằng. Tại lễ ra mắt Ủy ban đạo đức AI của Hiệp hội Phần mềm và Dịch vụ CNTT Việt Nam cuối năm 2024, các chuyên gia cũng khẳng định: Phát triển AI bền vững cần có khuôn khổ pháp lý và đạo đức rõ ràng. Những điều này không nhằm kiểm soát, mà để định hướng công nghệ phát huy hiệu quả, hạn chế rủi ro và gắn với các giá trị xã hội.