“Khủng hoảng” dữ liệu trong đào tạo AI và lời giải từ dữ liệu tổng hợp
Hoàng An
16/01/2025
Khi AI tiếp tục chuyển đổi các ngành công nghiệp trên toàn cầu, việc giải quyết khủng hoảng chất lượng dữ liệu là điều tối quan trọng…Dữ liệu tổng hợp mang đến một giải pháp đầy triển vọng trong việc giải “bài toán” thiếu dữ liệu trong đào tạo AI…
Các nghiên cứu dự đoán rằng dữ liệu do con người tạo ra và được công khai để đào tạo các mô hình AI có thể cạn kiệt trong vòng từ hai đến tám năm tới, buộc chúng ta phải phụ thuộc vào "dữ liệu tổng hợp" (thông tin được sản xuất nhân tạo bởi thuật toán) khiến cho tính chính xác và độ tin cậy của AI có thể bị ảnh hưởng…
Theo Tiến sĩ James Kang, giảng viên cấp cao về Khoa học máy tính tại Đại học RMIT Việt Nam, huấn luyện AI và khả năng suy luận của chúng đóng vai trò cốt yếu trong việc tạo ra dự đoán và kết quả đầu ra. “Dùng dữ liệu thiên lệch hoặc không đầy đủ sẽ ảnh hưởng đến đầu ra. Ví dụ, nếu AI được đào tạo nhận diện khuôn mặt chỉ dựa trên dữ liệu của một nhóm sắc tộc, nó có thể đưa ra các dự đoán kém chính xác hơn khi xử lý khuôn mặt thuộc các sắc tộc khác”, TS.Kang cho biết.
DỮ LIỆU KHÔNG NHẤT QUÁN KHIẾN AI NHẦM LẪN
Dữ liệu không chính xác, không nhất quán hoặc lỗi thời còn có thể khiến AI nhầm lẫn và giảm hiệu suất xử lý. Việc gắn dữ liệu không đúng cách cũng ảnh hưởng đến chất lượng vì liên quan trực tiếp đến tính chính xác và nhất quán của quá trình huấn luyện AI. “Khi huấn luyện AI bằng các hình ảnh của táo, dứa và cam, nhưng dứa bị gắn nhãn nhầm thành táo, AI sẽ bị nhầm lẫn và nhận diện cả táo lẫn dứa là cùng một loại. Do đó, việc gắn nhãn chính xác ngay từ đầu là rất quan trọng và đóng vai trò then chốt trong việc đảm bảo huấn luyện ra mô hình AI đáng tin cậy và hiệu quả”, TS.Kang nêu ví dụ.
Khảo sát từ Forbes Advisor cho thấy 64% doanh nghiệp tin rằng AI sẽ giúp tăng năng suất, nhưng điều đó còn phụ thuộc vào chất lượng dữ liệu được dùng để huấn luyện AI.
NHỮNG MẶT ĐƯỢC VÀ MẤT KHI DÙNG DỮ LIỆU TỔNG HỢP
Trong khi dữ liệu thực chủ yếu được thu thập từ các nguồn như phỏng vấn, khảo sát, thí nghiệm, quan sát và khai thác dữ liệu, thì dữ liệu tổng hợp được tạo ra nhân tạo bởi các thuật toán. Bằng cách sử dụng mô phỏng máy tính và dự đoán thay vì dữ liệu thực, dữ liệu tổng hợp được thiết kế để tái hiện các mô hình hoặc đặc tính thống kê của dữ liệu thực, nhằm tiết kiệm chi phí – ví dụ, giảm tới 60% chi phí kiểm tra và rút ngắn đến 30% chu kỳ phát triển.
Theo TS.Kang, dữ liệu tổng hợp có thể được tạo ra nhanh chóng, trong khi dữ liệu thực thường tốn kém và mất nhiều thời gian để thu thập cũng như gắn nhãn khi sử dụng làm đầu vào cho những hệ thống AI. Các công ty công nghệ thường chọn dữ liệu tổng hợp trong trường hợp gặp rào cản về quyền riêng tư hoặc các vấn đề đạo đức liên quan đến việc thu thập dữ liệu, chẳng hạn như thông tin cá nhân người dùng hoặc dữ liệu y tế nhạy cảm.
Dữ liệu tổng hợp cũng rất hữu ích trong việc giảm thiểu hoặc loại bỏ một số thiên lệch, vì dữ liệu thực tế đôi khi cũng mang theo các thiên lệch này. Khi dữ liệu thực khan hiếm hoặc khó tiếp cận, việc bổ sung dữ liệu tổng hợp vào các tập dữ liệu hiện có có thể giúp cung cấp một bộ mẫu huấn luyện đa dạng hơn. “Do đó, có rất nhiều tình huống mà các nhà nghiên cứu và công ty công nghệ sử dụng dữ liệu tổng hợp để vượt qua các hạn chế và thách thức của dữ liệu thực”, TS.Kang chia sẻ.
Trong lĩnh vực y tế, các nhà nghiên cứu thường đối mặt với thách thức về quyền truy cập vào dữ liệu bệnh nhân đa dạng và toàn diện do các quy định bảo mật. Ví dụ, Watson Health của IBM đã tận dụng dữ liệu tổng hợp để khắc phục những hạn chế này. Bằng cách tạo ra các tập dữ liệu tổng hợp mô phỏng hồ sơ bệnh nhân thực, họ đã xây dựng được một bộ dữ liệu đào tạo đa dạng và toàn diện cho các mô hình AI của mình. “Điều này giúp giảm thiểu các thiên lệch, chẳng hạn như về giới tính, độ tuổi và sắc tộc, vốn thường thấy trong dữ liệu thực tế”, TS.Kang cho biết.
CẦN CÓ HỆ THỐNG XÁC THỰC DỮ LIỆU CHẶT CHẼ
TS.Kang cho biết, một vấn đề cốt lõi khi sử dụng dữ liệu tổng hợp trong các mô hình AI là mức độ không chắc chắn liên quan đến tính hợp lệ và chất lượng thông tin. Người dùng gặp khó khăn trong việc đánh giá mức độ tin cậy của dữ liệu do AI tạo ra, vì vẫn chưa có hệ thống đánh giá chất lượng hoặc "chấm điểm" nào được chấp nhận rộng rãi và chuẩn hóa. Do đó, việc triển khai một hệ thống xác thực dữ liệu chặt chẽ là điều cần thiết để đảm bảo độ chính xác và tin cậy của dữ liệu dùng trong huấn luyện.
Để phân biệt giữa dữ liệu thực và dữ liệu tổng hợp, AI có thể theo dõi siêu dữ liệu và nguồn gốc của dữ liệu được sử dụng để xác định nơi xuất phát và chất lượng hoặc mức độ đáng tin cậy của dữ liệu. Khi cần, có thể có sự can thiệp của con người vào quá trình chuẩn bị và huấn luyện AI để đảm bảo duy trì chất lượng dữ liệu được tạo ra.
“Việc thay thế một phần dữ liệu thực để tạo dữ liệu tổng hợp một phần có thể là một giải pháp nhằm bảo vệ quyền riêng tư cá nhân – chẳng hạn như dùng định danh giả cho tên người dùng hoặc ngày sinh – mà không cần tổng hợp toàn bộ dữ liệu. Sử dụng kết hợp dữ liệu thực và dữ liệu tổng hợp theo cách được quản lý cẩn trọng như vậy có thể tăng hiệu suất AI bằng cách duy trì quyền riêng tư và vừa giảm thiểu các thiên lệch”, TS. Kang cho biết.
TS. Kang cho rằng, khi AI tiếp tục chuyển đổi các ngành công nghiệp trên toàn cầu, việc giải quyết khủng hoảng chất lượng dữ liệu là điều tối quan trọng. Dữ liệu tổng hợp mang đến một giải pháp đầy triển vọng, nhưng cần được sử dụng cẩn thận để giảm thiểu rủi ro về tính chính xác độ tin cậy.
“Để đảm bảo sự phát triển bền vững của AI tại Việt Nam, việc hợp tác giữa chính phủ, doanh nghiệp, các ngành nghề và các trường đại học nhằm nâng cao chất lượng dữ liệu đào tạo, bao gồm cả dữ liệu huấn luyện, là điều thiết yếu. Chỉ khi cùng nhau hành động, chúng ta mới có thể vượt qua tình trạng thiếu hụt dữ liệu, nâng cao tính chính xác và độ tin cậy của các mô hình AI, thúc đẩy đổi mới và phát triển trong lĩnh vực này”, TS.Kang nhấn mạnh.
Khối doanh nghiệp vừa và nhỏ thường được xem là “mắt xích yếu” trong hệ thống phòng thủ an ninh mạng do hạn chế về nguồn lực tài chính, nhân sự chuyên sâu và nhận thức...
Nền tảng sẽ cung cấp khả năng cảnh báo sớm tình trạng xâm nhập mặn trước từ 1 đến 5 ngày, giúp nông dân chủ động điều chỉnh lịch thời vụ, giảm thiểu tối đa thiệt hại kinh tế do thiên tai gây ra...
Lạm dụng các công cụ AI mà thiếu đi tư duy thiết kế bao trùm và sự thấu cảm thực tế sẽ tạo ra những sản phẩm đầy định kiến, xa rời người dùng…
Việt Nam không thể mãi dừng chân ở vai trò "người mua" hay lắp ráp sản phẩm. Doanh nghiệp Việt cần từng bước làm chủ công nghệ lõi, xây dựng nền kinh tế tự chủ nhưng vẫn duy trì hội nhập hiệu quả…
Khi dữ liệu không được hiểu đúng, quản trị đúng và sử dụng thống nhất, mọi nỗ lực công nghệ có thể trở nên kém hiệu quả, thậm chí phản tác dụng…
Khác với các công cụ tự động hóa thông thường, nhân viên số là những thực thể có định danh, có trách nhiệm và vận hành độc lập trong chuỗi giá trị...
Sandbox, thay vì tạo ra môi trường thử nghiệm linh hoạt, đang bị “neo” vào một hệ thống pháp lý thiếu đồng bộ, khiến hiệu quả bị hạn chế…
Môi trường khởi nghiệp được tạo điều kiện thuận lợi, sinh viên sau khi ra trường sẽ có cơ hội tự tạo các doanh nghiệp siêu nhỏ, doanh nghiệp nhỏ, từ đó tự học hỏi và nâng cao năng lực từ thấp lên cao trong kỷ nguyên AI…
Trong bối cảnh ngành bán dẫn toàn cầu đang phát triển mạnh mẽ, các chuyên gia trong ngành cho rằng sinh viên Việt Nam không chỉ cần nền tảng kỹ thuật vững chắc mà còn phải biết lựa chọn hướng đi phù hợp với năng lực, nuôi dưỡng sự kiên trì và khả năng học hỏi lâu dài…
Đây là lần đầu tiên một cuộc thi hackathon về môi trường quy mô toàn châu Á, dành riêng cho sinh viên, học viên cao học được tổ chức tại Việt Nam…