Quản trị dữ liệu trong thời đại AI sáng tạo - DATAVERSITY

Quản trị dữ liệu trong thời đại AI sáng tạo – DATAVERSITY

Nút nguồn: 2887173

Các mô hình và sản phẩm kinh doanh dựa trên AI sử dụng AI tổng quát (GenAI) đang sinh sôi nảy nở trên nhiều ngành công nghiệp. Làn sóng AI hiện tại đang tạo ra những cách làm việc mới và nghiên cứu cho thấy các nhà lãnh đạo doanh nghiệp cảm thấy lạc quan về tiềm năng cải thiện năng suất và dịch vụ khách hàng có thể đo lường được, cũng như những chuyển đổi trong cách tạo ra và phân phối sản phẩm và dịch vụ.

Theo báo cáo của công ty tôi, hầu hết (90%) doanh nghiệp cho phép nhân viên áp dụng AI ở một mức độ nào đó. Báo cáo quản lý dữ liệu phi cấu trúc năm 2023. Tương tự như vậy, Salesforce Trạng thái của CNTT báo cáo cho thấy 86% các nhà lãnh đạo CNTT tin rằng AI tạo ra sẽ sớm có vai trò nổi bật trong tổ chức của họ.

Tuy nhiên, có rất nhiều mối nguy hiểm tiềm ẩn vốn có trong dạng AI mới này, từ rủi ro về quyền riêng tư và bảo mật đến các mối lo ngại về đạo đức, tính không chính xác, sai lệch dữ liệu và các tác nhân độc hại. Các nhà lãnh đạo chính phủ và doanh nghiệp đang phân tích các vấn đề và cân nhắc các giải pháp để áp dụng AI một cách an toàn và thành công.

Bài viết này đánh giá các nghiên cứu mới nhất về AI liên quan đến dữ liệu phi cấu trúc kế hoạch CNTT của doanh nghiệp và quản lý. 

Điểm nổi bật:

  • Ngày nay, Generative AI là chiến lược kinh doanh và công nghệ hàng đầu nhưng cũng là ưu tiên hàng đầu của các nhà quản lý lưu trữ dữ liệu.
  • Mặc dù AI có nhiều tiềm năng nhưng nó cũng gây ra một loạt mối lo ngại về Quản trị dữ liệu xung quanh quyền riêng tư, bảo mật và đạo đức, những điều đang cản trở việc áp dụng.
  • Các doanh nghiệp đang cho phép sử dụng AI tổng quát, nhưng họ thường áp đặt các rào cản quản lý các ứng dụng và dữ liệu mà nhân viên có thể sử dụng.
  • Hầu hết các tổ chức đang theo đuổi cách tiếp cận đa hướng, bao gồm các công cụ lưu trữ, quản lý dữ liệu và bảo mật để bảo vệ khỏi các rủi ro AI phát sinh.

Mối quan tâm hàng đầu của doanh nghiệp về AI sáng tạo 

Những lo ngại và rủi ro liên quan đến AI tạo ra có nguy cơ làm mất đi nhiều lợi ích của công nghệ và gây hại cho các công ty, nhân viên và khách hàng của họ. Theo khảo sát của công ty tôi, vi phạm quyền riêng tư và bảo mật là mối quan tâm hàng đầu của các nhà lãnh đạo CNTT đối với việc sử dụng AI của doanh nghiệp (28%), tiếp theo là sự thiếu minh bạch của nguồn dữ liệu và rủi ro từ dữ liệu không chính xác hoặc sai lệch (21%). 

Nghiên cứu khác cho thấy mối quan tâm bổ sung:

  • Ba rủi ro hàng đầu của AI tạo ra, theo các giám đốc điều hành được khảo sát bởi KPMG, là an ninh mạng, mối lo ngại về quyền riêng tư với dữ liệu cá nhân và trách nhiệm pháp lý.
  • Mối quan tâm chính được trích dẫn trong một báo cáo gần đây Thăm dò ý kiến ​​Harris là chất lượng và kiểm soát (51%), rủi ro về an toàn và bảo mật (49%), hạn chế sự đổi mới của con người (39%) và lỗi của con người do thiếu hiểu biết về cách sử dụng công cụ và vô tình vi phạm dữ liệu của tổ chức (38%) . 
  • 64% các nhà lãnh đạo CNTT được Salesforce khảo sát lo ngại về đạo đức của AI sáng tạo.
  • Khoảng một nửa (49%) số người được hỏi trong một Sách trắng IDC lưu ý những lo ngại về việc phát hành nội dung độc quyền của tổ chức của họ sang các mô hình ngôn ngữ lớn của các nhà cung cấp công nghệ AI tổng hợp.

Hãy tìm hiểu sâu hơn một chút về những lĩnh vực cần quan tâm này. Quyền riêng tư và bảo mật là điều rõ ràng nhất. Nếu không có biện pháp bảo vệ trong việc sử dụng dữ liệu, nhân viên có thể vô tình chia sẻ dữ liệu nhạy cảm của công ty như IP, bí mật nhãn hiệu, lộ trình sản phẩm, hình ảnh độc quyền và dữ liệu khách hàng ẩn trong các tệp mà họ cung cấp cho công cụ AI. 

Một công cụ AI sáng tạo mô hình học ngôn ngữ (LLM) sau đó sẽ chứa dữ liệu nhạy cảm đó, dữ liệu này sau này có thể tìm đường vào các tác phẩm do người khác ủy quyền sử dụng cùng một công cụ. Dữ liệu đó thậm chí có thể được đưa vào phạm vi công cộng và tồn tại ở đó vô thời hạn. Các tính năng AI mới hơn, như “liên kết chia sẻ” của các cuộc hội thoại do công cụ tạo ra, khiến việc vô tình tiết lộ thông tin nhạy cảm trở nên dễ dàng hơn nếu liên kết rơi vào tay kẻ xấu. Ngược lại, một công ty có thể phải đối mặt với trách nhiệm pháp lý nếu một nhân viên tạo ra tác phẩm phái sinh trong AI chứa dữ liệu được bảo vệ bị rò rỉ từ một tổ chức khác. 

Một vấn đề hàng đầu khác là khả năng dẫn đến kết quả không chính xác hoặc có hại nếu dữ liệu trong mô hình bị sai lệch, bôi nhọ hoặc chưa được xác minh. Cũng đã có một loạt vụ kiện của các nghệ sĩ và nhà văn liên quan đến việc sử dụng tác phẩm của họ trong các mô hình đào tạo. 

Các tổ chức có thể vô tình phải chịu trách nhiệm pháp lý về nhiều khiếu nại tiềm ẩn khi sử dụng các mô hình đào tạo AI nói chung. Điều này có thể dẫn đến thiệt hại lâu dài cho mối quan hệ khách hàng, danh tiếng thương hiệu và dòng doanh thu của công ty. Theo đó, nghiên cứu của KPMG cho thấy 45% giám đốc điều hành cho rằng AI có thể tác động tiêu cực đến niềm tin của tổ chức nếu các công cụ quản lý rủi ro phù hợp không được triển khai.

Chuẩn bị cho AI

Khi các công nghệ AI thương mại phát triển nhanh chóng, các tổ chức CNTT đang suy nghĩ và triển khai các chiến lược và chính sách AI. Theo khảo sát của công ty tôi, trên thực tế, việc chuẩn bị cho AI là ưu tiên lưu trữ dữ liệu hàng đầu của các nhà lãnh đạo CNTT vào năm 2023, so với trọng tâm chính là di chuyển sang đám mây vào năm 2022. Chỉ 26% lãnh đạo CNTT cho biết họ không có chính sách quản lý AI và chỉ 21% cho phép AI không hạn chế về dữ liệu hoặc ứng dụng mà nhân viên có thể sử dụng. 

Việc chuẩn bị AI có thể bao gồm các khoản đầu tư và chiến lược sau: 

Chọn công cụ phù hợp: Các nhà cung cấp đám mây lớn, cùng với các nhà cung cấp phần mềm doanh nghiệp nổi bật, đều đang tung ra các giải pháp sáng tạo liên quan đến AI của riêng mình để đáp ứng các trường hợp sử dụng và yêu cầu kinh doanh khác nhau. Dành thời gian để hiểu mục tiêu và hồ sơ rủi ro của tổ chức bạn. Một phần của quá trình lựa chọn liên quan đến việc xác định xem bạn sẽ sử dụng mô hình AI được đào tạo trước cho mục đích chung, như ChatGPT hoặc Google Baird hay tạo mô hình tùy chỉnh. Bài đăng trên blog này chi tiết hai cách tiếp cận khác nhau. Một tổ chức có yêu cầu tuân thủ và bảo mật nghiêm ngặt có thể chọn phương pháp phát triển tùy chỉnh, tuy nhiên, điều này sẽ đòi hỏi đầu tư lớn vào công nghệ và chuyên môn.

Đầu tư vào cơ sở hạ tầng lưu trữ sẵn sàng cho AI: Chạy các ứng dụng AI tổng quát đòi hỏi rất nhiều mã lực. Hệ thống điện toán AI thường bao gồm khả năng tính toán hiệu suất cao (CPU và GPU), bộ lưu trữ flash hiệu quả từ các công ty như Vast và Pure Storage, cũng như các hệ thống bảo mật thích hợp để bảo vệ mọi dữ liệu IP nhạy cảm được sử dụng trong LLM. Các nhà cung cấp đám mây hàng đầu AWS, Azure và Google đã phát hành một số dịch vụ mới để chạy các dự án AI tổng hợp và giảm chi phí, mức sử dụng năng lượng cũng như độ phức tạp cho các tổ chức CNTT.

Xem xét ý nghĩa của việc quản lý dữ liệu: Có năm lĩnh vực chính cần xem xét khi sử dụng quản lý dữ liệu phi cấu trúc trong các công cụ AI, bao gồm bảo mật, quyền riêng tư, dòng dõi, quyền sở hữu và quản trị dữ liệu phi cấu trúc hoặc SPLOG. Việc cân nhắc bắt đầu bằng cách đạt được khả năng hiển thị kỹ lưỡng về dữ liệu tệp và đối tượng trên bộ lưu trữ tại chỗ, biên và đám mây. Chiến thuật bao gồm:

  • Tách riêng dữ liệu nhạy cảm và độc quyền thành một miền riêng tư, an toàn, hạn chế chia sẻ với các ứng dụng AI thương mại. 
  • Duy trì dấu vết kiểm tra xem ai đã cung cấp dữ liệu nào của công ty vào các ứng dụng AI.
  • Hiểu những đảm bảo nào, nếu có, nhà cung cấp của bạn sẽ đưa ra về việc sử dụng dữ liệu của bạn trong thuật toán AI của họ. Điều này vượt xa các nhà cung cấp AI vì các ứng dụng phần mềm doanh nghiệp khác hiện đang kết hợp AI vào nền tảng của họ.
  • Yêu cầu các nhà cung cấp AI chia sẻ thông tin về các nguồn dữ liệu được quản lý cho LLM và cách họ sẽ bảo vệ tổ chức của bạn trước mọi kết quả hoặc trách nhiệm pháp lý có hại liên quan đến mô hình đào tạo.

35% lãnh đạo CNTT trong cuộc khảo sát của công ty tôi cho biết họ sẽ theo đuổi cách tiếp cận đa hướng bao gồm các công cụ lưu trữ, quản lý dữ liệu và bảo mật để bảo vệ đầy đủ trước các rủi ro AI phát sinh. Những phát hiện liên quan bao gồm: 32% sẽ làm việc với các nhà cung cấp bảo mật/quản trị hiện tại của họ để giảm thiểu rủi ro; 31% cho biết họ có khả năng giảm thiểu rủi ro trong các giải pháp lưu trữ dữ liệu và/hoặc quản lý dữ liệu phi cấu trúc; 26% đã thành lập lực lượng đặc nhiệm nội bộ để xây dựng và thực hiện chiến lược; và XNUMX% sẽ chỉ làm việc với nhà cung cấp AI có biện pháp bảo vệ và kiểm soát đầy đủ.

Ngoài công nghệ, các nhà lãnh đạo CNTT và doanh nghiệp nên đầu tư vào việc đào tạo và giáo dục nhân viên về cách sử dụng công nghệ AI đúng cách và an toàn để đáp ứng các mục tiêu của công ty và ngăn chặn các vấn đề về quyền riêng tư, bảo mật, đạo đức và sự thiếu chính xác có thể phát sinh. Theo một cuộc khảo sát do tổ chức Randstad.

Năm 2023 sẽ là năm chuyển đổi của AI từ một khái niệm thử nghiệm sang ưu tiên chiến lược của hầu hết các doanh nghiệp, với ngân sách sẽ được điều chỉnh tương ứng. Cách các nhà lãnh đạo CNTT và doanh nghiệp triển khai AI từ góc độ Quản trị dữ liệu và quản lý rủi ro sẽ quyết định liệu đây có phải là sự phát triển tích cực tổng thể cho loài người hay không.

Dấu thời gian:

Thêm từ PHỔ THÔNG DỮ LIỆU