Sử dụng dữ liệu của riêng bạn để giảm thiểu các vấn đề về quyền riêng tư của AI và cải thiện niềm tin vào AI | Tin tức và báo cáo về IoT Now

Sử dụng dữ liệu của riêng bạn để giảm thiểu các vấn đề về quyền riêng tư của AI và cải thiện niềm tin vào AI | Tin tức và báo cáo về IoT Now

Nút nguồn: 3068504

Với các mô hình AI có thể phát hiện các mẫu và đưa ra các dự đoán mà con người khó hoặc không thể thực hiện thủ công, các ứng dụng tiềm năng cho các công cụ như ChatGPT trong các ngành chăm sóc sức khỏe, tài chính và dịch vụ khách hàng là rất lớn.

Tuy nhiên, trong khi các ưu tiên của các tổ chức xung quanh AI là đánh giá các cơ hội mà các công cụ AI tổng hợp mang lại cho doanh nghiệp của họ về mặt lợi thế cạnh tranh thì chủ đề về quyền riêng tư dữ liệu đã trở thành mối quan tâm hàng đầu. Việc quản lý việc sử dụng AI có trách nhiệm, với khả năng tạo ra kết quả sai lệch, cần được xem xét cẩn thận. 

Mặc dù lợi ích tiềm năng của các mô hình này là rất lớn nhưng các tổ chức nên xem xét cẩn thận các cân nhắc về mặt đạo đức và thực tế để sử dụng AI một cách có trách nhiệm với việc bảo vệ dữ liệu AI an toàn và bảo mật. Bằng cách tối ưu hóa trải nghiệm người dùng tổng thể với ChatGPT, các tổ chức có thể cải thiện Độ tin cậy của AI

Những lo ngại về quyền riêng tư của AI 

Cũng giống như nhiều công nghệ tiên tiến khác, AI chắc chắn sẽ đặt ra một số câu hỏi và thách thức cho những ai muốn triển khai nó trong kho công nghệ của mình. Trên thực tế, một cuộc khảo sát của Tiến độ tiết lộ rằng 65% doanh nghiệp và giám đốc điều hành CNTT hiện tin rằng có sự sai lệch dữ liệu trong các tổ chức tương ứng của họ và 78% cho biết điều này sẽ trở nên tồi tệ hơn khi việc áp dụng AI tăng lên. 

Có lẽ mối quan tâm lớn nhất về quyền riêng tư là xung quanh việc sử dụng dữ liệu của công ty tư nhân song song với các nền tảng AI nội bộ và công khai. Ví dụ: đây có thể là một tổ chức chăm sóc sức khỏe lưu trữ dữ liệu bí mật của bệnh nhân hoặc dữ liệu bảng lương nhân viên của một tập đoàn lớn. 

Để AI hoạt động hiệu quả nhất, bạn cần một cỡ mẫu lớn dữ liệu công cộng và/hoặc riêng tư chất lượng cao và các tổ chức có quyền truy cập vào dữ liệu bí mật, chẳng hạn như các công ty chăm sóc sức khỏe có hồ sơ y tế, có lợi thế cạnh tranh khi xây dựng các giải pháp dựa trên AI. Trên hết, các tổ chức có dữ liệu nhạy cảm như vậy phải xem xét các yêu cầu về đạo đức và quy định xung quanh dữ liệu riêng tư, công bằng, có thể giải thích, minh bạch, mạnh mẽ và khả năng tiếp cận.  

Mô hình ngôn ngữ lớn (LLM) là các mô hình AI mạnh mẽ được đào tạo trên dữ liệu văn bản để thực hiện các tác vụ xử lý ngôn ngữ tự nhiên khác nhau, bao gồm dịch ngôn ngữ, trả lời câu hỏi, tóm tắt và phân tích cảm xúc. Những mô hình này được thiết kế để phân tích ngôn ngữ theo cách bắt chước trí thông minh của con người, cho phép chúng xử lý, hiểu và tạo ra lời nói của con người. 

Rủi ro về dữ liệu riêng tư khi sử dụng AI 

Tuy nhiên, những mô hình phức tạp này xuất hiện những thách thức về đạo đức và kỹ thuật có thể gây ra rủi ro về tính chính xác của dữ liệu, vi phạm bản quyền và các trường hợp phỉ báng tiềm ẩn. Một số thách thức để sử dụng AI chatbot một cách hiệu quả bao gồm: 

  • Ảo giác – Trong AI, ảo giác là khi nó báo cáo những câu trả lời chứa đầy lỗi cho người dùng và những điều này đều quá phổ biến. Cách LLM dự đoán từ tiếp theo khiến câu trả lời nghe có vẻ hợp lý, trong khi thông tin có thể không đầy đủ hoặc sai. Ví dụ: nếu người dùng hỏi chatbot về doanh thu trung bình của đối thủ cạnh tranh, những con số này có thể không chính xác.  
  • Xu hướng dữ liệu – LLM cũng có thể trưng bày thành kiến, có nghĩa là chúng có thể tạo ra kết quả phản ánh những thành kiến ​​trong dữ liệu huấn luyện hơn là thực tế khách quan. Ví dụ: một mô hình ngôn ngữ được đào tạo trên tập dữ liệu chủ yếu là nam giới có thể tạo ra kết quả sai lệch về các chủ đề giới tính. 
  • Lý luận/Hiểu biết – LLM cũng có thể cần trợ giúp với các nhiệm vụ đòi hỏi lý luận hoặc hiểu biết sâu hơn về các khái niệm phức tạp. LLM có thể được đào tạo để trả lời các câu hỏi đòi hỏi sự hiểu biết sâu sắc về văn hóa hoặc lịch sử. Các mô hình có thể duy trì các khuôn mẫu hoặc cung cấp thông tin sai lệch nếu không được đào tạo và giám sát hiệu quả. 

Ngoài những rủi ro này, các rủi ro khác có thể bao gồm Cắt dữ liệu, đó là khi bộ nhớ của mô hình có xu hướng lỗi thời. Một thách thức khác có thể xảy ra là hiểu cách LLM tạo ra phản hồi của nó vì AI không được đào tạo hiệu quả để thể hiện lý do được sử dụng để xây dựng phản hồi. 

Sử dụng kiến ​​thức ngữ nghĩa để cung cấp dữ liệu đáng tin cậy 

Các nhóm công nghệ đang tìm kiếm sự hỗ trợ về việc sử dụng dữ liệu riêng tư cho ChatGPT. Mặc dù độ chính xác và hiệu quả đã tăng lên, LLM, chưa kể đến người dùng của họ, vẫn có thể cần trợ giúp để có câu trả lời. Đặc biệt là vì dữ liệu có thể thiếu ngữ cảnh và ý nghĩa. Một giải pháp quản lý kiến ​​thức AI mạnh mẽ, an toàn, minh bạch và được quản lý chính là câu trả lời. Với nền tảng dữ liệu ngữ nghĩa, người dùng có thể tăng độ chính xác và hiệu quả trong khi triển khai quản trị.  

Bằng cách đạt được câu trả lời là sự kết hợp giữa câu trả lời của ChatGPT được xác thực bằng kiến ​​thức ngữ nghĩa từ nền tảng dữ liệu ngữ nghĩa, kết quả tổng hợp sẽ cho phép LLM và người dùng dễ dàng truy cập và kiểm tra tính xác thực của kết quả dựa trên nội dung nguồn và kiến ​​thức SME thu được. 

Điều này cho phép công cụ AI lưu trữ và truy vấn dữ liệu có cấu trúc và không cấu trúc cũng như nắm bắt nội dung của chuyên gia về chủ đề (SME) thông qua GUI trực quan. Bằng cách trích xuất các dữ kiện được tìm thấy trong dữ liệu và gắn thẻ dữ liệu riêng tư bằng kiến ​​thức ngữ nghĩa, các câu hỏi hoặc thông tin đầu vào của người dùng cũng như các câu trả lời ChatGPT cụ thể cũng có thể được gắn thẻ bằng kiến ​​thức này.  

Bảo vệ dữ liệu nhạy cảm có thể mở ra tiềm năng thực sự của AI 

Giống như tất cả các công nghệ, việc đề phòng các tình huống hoặc đầu vào không mong muốn thậm chí còn quan trọng hơn với LLM. Khi giải quyết thành công những thách thức này, độ tin cậy của các giải pháp của chúng tôi sẽ tăng lên cùng với sự hài lòng của người dùng, cuối cùng dẫn đến thành công của giải pháp. 

Là bước đầu tiên trong việc khám phá việc sử dụng AI cho tổ chức của mình, các chuyên gia CNTT và bảo mật phải tìm cách bảo vệ dữ liệu nhạy cảm, đồng thời tận dụng dữ liệu đó để tối ưu hóa kết quả cho tổ chức và khách hàng của mình. 

Matthieu Jonglez, Phó chủ tịch công nghệ - nền tảng ứng dụng và dữ liệu tại Progress.Matthieu Jonglez, Phó chủ tịch công nghệ - nền tảng ứng dụng và dữ liệu tại Progress.

Bài viết của Matthieu Jonglez, Phó chủ tịch công nghệ – nền tảng ứng dụng và dữ liệu tại tiến triểnNS.

Bình luận về bài viết này dưới đây hoặc thông qua X: @IoTNow_

Dấu thời gian:

Thêm từ IoT ngay bây giờ