“Luật Trí tuệ nhân tạo” (2)

Tiếp nối bài trước về Luật Trí tuệ nhân tạo, bài này chia sẻ quan điểm có phần “thực dụng” hơn của Py: PO/PM nên đối xử với AI như thế nào, cả trong vai trò người dùng lẫn người xây.

Disclaimer: Bài viết dựa trên quan điểm của sinh viên ngành Kinh tế – không phải ngành luật – và 7+ năm kinh nghiệm làm việc trong lĩnh vực công nghệ, nhằm chia sẻ góc nhìn cá nhân. Không mang tính chất tư vấn pháp lý hay đại diện phát ngôn cho bất kỳ tổ chức nào.

Biết sử dụng AI là kỹ năng bắt buộc — nhưng mức độ đã khác

Chắc đến đây thì không cần bàn cãi thêm về những gì AI có thể làm được. Trong các bài viết trước, Py từng nói: sử dụng AI như một công cụ nên được xem là kỹ năng sinh tồn. Điều đó vẫn đúng — nhưng điểm thay đổi nằm ở chỗ mức độ kỳ vọng đã dịch chuyển đáng kể.

Giai đoạn trước (khoảng chưa đến một năm trước), PO/PM chủ động dùng AI để nâng cao hiệu suất cá nhân — research sản phẩm, viết docs, quản lý task. Đó là chuyện của cá nhân, muốn hay không là lựa chọn. Còn bây giờ, PO/PM cần quen với việc ứng dụng AI trực tiếp trong các solutions cung cấp cho stakeholder — tức là AI không còn là công cụ hỗ trợ, mà là một phần của sản phẩm.

Ví dụ cụ thể: trước đây để đo lường trải nghiệm người dùng, các chỉ số quen thuộc như CSAT (Customer Satisfaction Score) hay NPS (Net Promoter Score) thường được nhắc đến đầu tiên. Cả hai đều có giá trị — CSAT đo mức độ hài lòng tức thời sau từng touchpoint, còn NPS phản ánh loyalty dài hạn — nhưng đều thuộc nhóm lagging indicators: phản ánh những gì đã xảy ra, không phải những gì đang diễn ra. Dữ liệu được thu thập theo đợt, qua form khảo sát, và khi kết quả về tay thì vấn đề đã kịp leo thang từ lâu.

AI mang đến một cách tiếp cận khác. Thay vì chờ người dùng điền khảo sát, các nền tảng hiện đại có thể theo dõi tín hiệu hành vi theo thời gian thực — số lần người dùng phải liên hệ CSKH với cùng một vấn đề, tỷ lệ escalation, thời gian xử lý ticket, sentiment trong từng đoạn chat — để ước tính mức độ nỗ lực mà người dùng phải bỏ ra một cách chủ động, không cần hỏi.¹ Predictive AI thậm chí có thể gán điểm CSAT dự đoán cho từng tương tác ngay khi nó diễn ra, thay vì đợi người dùng phản hồi.²

Nói cách khác, AI không chỉ giúp thu thập feedback nhanh hơn — mà đang thay đổi bản chất của việc đo lường trải nghiệm khách hàng. Và đó là thứ PO/PM cần hiểu, không chỉ để dùng, mà còn để đề xuất với stakeholder.

Dùng AI có trách nhiệm — từ lựa chọn cá nhân thành nghĩa vụ pháp lý

Trước đây, dùng AI hay không, dùng như thế nào, là lựa chọn cá nhân. Nhưng từ ngày 01/03/2026, khi Luật Trí tuệ nhân tạo của Việt Nam chính thức có hiệu lực, điều đó đã thay đổi.

Nếu bạn đang xây sản phẩm có tích hợp AI — dù là freelancer, startup nhỏ, hay một PO trong team vài người — bạn đã là “bên triển khai” theo định nghĩa của luật. Và bên triển khai có tên trong luật, có trách nhiệm trong luật.³

Gần như là mắc xích đầu tiên trong chuỗi “đưa ra giải pháp”, PO/PM nên là người chủ động đặt câu hỏi về tuân thủ pháp lý — không phải chờ legal team nhắc. Thực ra, hành động này không chỉ là bảo vệ công ty; nó còn là cách PO/PM gián tiếp bảo vệ người dùng cuối trước những rủi ro mà đôi khi không ai chịu đứng ra nhận trách nhiệm.

Một vài tactics nhỏ mà Py nghĩ là khả thi ngay từ bây giờ: tag hoặc tooltip đánh dấu những nội dung do AI tạo ra; không cố “nhân hóa” chatbot hay voicebot bằng cách đặt tên giống người thật để tạo cảm giác đang tương tác với con người. Những điều này vừa phù hợp với tinh thần minh bạch mà luật yêu cầu, vừa giúp người dùng hình thành thói quen tiêu thụ AI có ý thức hơn.³

Đạo đức là lựa chọn tự nguyện — và đó mới là phần thú vị

Luật đặt ra sàn tối thiểu: không được làm gì, phải làm gì ở mức cơ bản nhất. Phân loại rủi ro hệ thống AI, thông báo khi nội dung do AI tạo ra có khả năng gây nhầm lẫn — những điều này là cần, nhưng chưa đủ.³

Vì có những câu hỏi mà luật không trả lời thay được: dữ liệu huấn luyện model này đến từ đâu? Có thiên kiến nào đang được nhân rộng không? Sản phẩm có đang khai thác hành vi người dùng theo cách mà họ không nhận ra không?

Đây là phần Py gọi là moral design — một khái niệm đã đề cập ở bài AI Ethics. Thiết kế có đạo đức không phải là làm cho giao diện đẹp hay luồng mượt, mà là đưa yếu tố đạo đức vào ngay từ khi đặt vấn đề sản phẩm.⁴ Trách nhiệm đó với Py gồm: đánh giá rủi ro đạo đức, ưu tiên user-centered design, và xây dựng cách giao tiếp rõ ràng về cách AI vận hành — với cả người dùng lẫn stakeholder.

Luật đã có. Câu hỏi còn lại là: mình chọn làm gì với khoảng không gian giữa “đủ để không vi phạm” và “thực sự tốt cho người dùng” — và đó, theo Py, mới là phần thú vị hơn của câu chuyện.


¹ CustomerThink. AI and Real-Time Tech vs. Traditional CX Surveys: Who Will Win the Upcoming Battle? Link

² PartnerHero / Crescendo. CX metrics and AI-driven insights: CX as a growth engine. Link

³ Cục Phát thanh, Truyền hình và Thông tin điện tử. (2026, March). Luật Trí tuệ nhân tạo. Link

⁴ Parallel HQ. Ethical Considerations in AI Design: Guide (2025). Link


Cám ơn bạn đã nán lại cho đến những dòng cuối cùng này.

Chúc bạn nhiều may mắn và bình an.

Anpy


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

AI (8) finance (5)