Đạo luật cân bằng: Giá trị của chuyên môn con người trong thời đại AI sáng tạo - DATAVERSITY

Đạo luật cân bằng: Giá trị của chuyên môn con người trong thời đại AI sáng tạo – DATAVERSITY

Nút nguồn: 3052574

Con người được coi là mắt xích yếu nhất trong doanh nghiệp khi nói đến vấn đề bảo mật. Đúng như vậy, như lên đến 95% các sự cố an ninh mạng đều do lỗi của con người gây ra. Con người hay thay đổi, dễ mắc sai lầm và không thể đoán trước, khiến họ trở thành mục tiêu dễ dàng cho tội phạm mạng muốn xâm nhập vào hệ thống của các tổ chức.  

Điều này làm cho sự phụ thuộc của chúng ta vào máy móc trở nên quan trọng hơn nhiều. Cho đến thời điểm này, chúng ta đã có thể tin tưởng máy móc sẽ hoạt động với mã là sự thật. Mặc dù chúng có thể bị xâm phạm thông qua các lỗ hổng trong mã hoặc thông qua các sai sót xã hội của người vận hành là con người, nhưng các vấn đề thường được giải quyết bằng một giải pháp rõ ràng. 

Tuy nhiên, với sự gia tăng của trí tuệ nhân tạo (GenAI) và mô hình ngôn ngữ lớn (LLM), các tổ chức hiện đang phải đối mặt với các cuộc tấn công kỹ thuật xã hội nhằm lừa AI làm những việc mà nó không có ý định làm. Khi chúng tôi giảm tải nhiều hơn cho AI, sẽ rất thú vị khi thấy các kiểu tấn công mới này diễn ra.

Trước tình thế tiến thoái lưỡng nan này, một lần nữa con người lại có trách nhiệm điều hướng bối cảnh bảo mật AI phức tạp và đang phát triển này. Điều này kêu gọi CISO truyền đạt rõ ràng những lợi ích cũng như những hạn chế của AI và nhận ra danh sách dài các cân nhắc về bảo mật gắn liền với các sản phẩm và khả năng hỗ trợ AI. 

Việc triển khai gấp rút AI tạo ra những thách thức an ninh mạng mới

Đầu tiên, một vấn đề phổ biến khi nói đến GenAI và LLM là sự phụ thuộc quá nhiều vào nội dung do AI tạo ra. Việc tin tưởng vào nội dung do AI tạo ra mà không xác minh hoặc kiểm tra thông tin sai lệch hoặc sai lệch mà không có sự tham gia hoặc giám sát của con người có thể dẫn đến việc truyền bá dữ liệu sai lệch, dẫn đến việc đưa ra quyết định kém và giảm khả năng tư duy phản biện. LLM được biết là gây ảo giác, vì vậy một số thông tin sai lệch thậm chí có thể không xuất phát từ mục đích xấu.

Tương tự như vậy, số lượng mã không an toàn đang được đưa ra sau sự phát triển của GenAI cũng sẽ trở thành một thách thức đáng kể đối với các CISO, nếu không được chủ động dự đoán trước. Các công cụ AI được biết là viết mã lỗi với các lỗ hổng bảo mật. Nếu không có sự giám sát thích hợp của con người, GenAI sẽ trao quyền cho những người không có nền tảng kỹ thuật phù hợp để gửi mã. Điều này dẫn đến rủi ro bảo mật gia tăng trong suốt vòng đời phát triển phần mềm đối với các tổ chức sử dụng các công cụ này không đúng cách.

Rò rỉ dữ liệu là một vấn đề phổ biến khác. Trong một số trường hợp, kẻ tấn công có thể sử dụng tính năng nhắc nhở để trích xuất thông tin nhạy cảm mà mô hình AI đã học được từ người dùng khác. Nhiều khi điều này có thể vô hại nhưng việc sử dụng với mục đích xấu chắc chắn không bị loại trừ. Kẻ xấu có thể cố tình thăm dò công cụ AI bằng các lời nhắc được thiết kế tỉ mỉ, nhằm mục đích trích xuất thông tin nhạy cảm mà công cụ này đã ghi nhớ, dẫn đến rò rỉ thông tin nhạy cảm hoặc bí mật.

AI có thể làm tăng một số lỗ hổng an ninh mạng nhưng có tiềm năng đáng kể để thu hẹp những lỗ hổng khác

Cuối cùng, người ta hiểu rằng việc phổ biến GenAI và LLM sẽ làm giảm một số mức giảm bề mặt tấn công trong ngành của chúng tôi vì một số lý do. Đầu tiên, khả năng tạo mã bằng GenAI hạ thấp tiêu chuẩn ai có thể trở thành kỹ sư phần mềm, dẫn đến mã yếu hơn và các tiêu chuẩn bảo mật thậm chí còn yếu hơn. Thứ hai, GenAI yêu cầu lượng dữ liệu khổng lồ, điều đó có nghĩa là quy mô và tác động của các vụ vi phạm dữ liệu sẽ tăng theo cấp số nhân. Thứ ba, giống như bất kỳ công nghệ mới nổi nào, các nhà phát triển có thể không nhận thức đầy đủ về cách thức triển khai của họ có thể bị khai thác hoặc lạm dụng. 

Tuy nhiên, điều cần thiết là phải áp dụng một quan điểm cân bằng. Mặc dù việc tạo điều kiện thuận lợi cho việc tạo mã của Gen AI có thể gây lo ngại nhưng nó cũng mang lại những thuộc tính tích cực cho bối cảnh an ninh mạng. Chẳng hạn, nó có thể xác định một cách hiệu quả các lỗ hổng bảo mật như Cross-Site Scripting (XSS) hoặc SQL SQL. Bản chất kép này nhấn mạnh tầm quan trọng của sự hiểu biết đa sắc thái. Thay vì coi AI chỉ có hại, nó nhấn mạnh mối quan hệ bổ sung giữa trí tuệ nhân tạo và sự tham gia của con người vào an ninh mạng. CISO phải nắm bắt các rủi ro liên quan của GenAI và LLM đồng thời khám phá các phương pháp tiếp cận lấy con người làm trung tâm để triển khai GenAI và củng cố tổ chức của họ.

Con người nhặt những gì AI để lại

CISO không chỉ được giao nhiệm vụ làm sáng tỏ sự phức tạp của GenAI. Họ phải mở đường cho tổ chức của mình và chứng minh cho lãnh đạo thấy cách tổ chức của họ có thể tiếp tục phát triển trong một thế giới do GenAI thống trị. 

Mặc dù người dùng cuối thường phải chịu trách nhiệm về nhiều lỗ hổng bảo mật, nhưng không có cách phòng chống tội phạm mạng nào tốt hơn con người được đào tạo bài bản và có tư duy bảo mật. Cho dù tổ chức có sử dụng công cụ phát hiện mối đe dọa nào thì đơn giản là không có gì có thể thay thế được người đứng sau màn hình khi nói đến việc kiểm tra phần mềm. 

Các tổ chức có thể vượt qua tội phạm mạng bằng cách sử dụng sức mạnh của hack đạo đức. Trong khi một số người ngần ngại mời tin tặc vào mạng của họ vì những quan niệm sai lầm lỗi thời, thì những chuyên gia an ninh mạng tuân thủ luật pháp này là đối thủ phù hợp nhất để đối phó với những kẻ xấu – bởi vì, không giống như AI, họ có thể xâm nhập vào đầu những kẻ tấn công mạng.

Trên thực tế, tin tặc đã bổ sung các công cụ tự động trong cuộc chiến chống lại tội phạm mạng, với 92% tin tặc đạo đức nói rằng họ có thể tìm thấy những lỗ hổng mà máy quét không thể tìm thấy. Bằng cách vén bức màn về việc hack vĩnh viễn, các nhà lãnh đạo doanh nghiệp có thể tận dụng việc hack có đạo đức và sự hỗ trợ của con người để đạt được sự cân bằng hiệu quả hơn giữa AI và các chuyên gia con người trong việc chống lại tội phạm mạng hiện đại. Gần đây của chúng tôi Báo cáo bảo mật do hacker cung cấp nhấn mạnh điều này, với 91% khách hàng của chúng tôi nói rằng tin tặc cung cấp các báo cáo về lỗ hổng có giá trị và có tác động mạnh mẽ hơn so với các giải pháp AI hoặc quét. Khi AI tiếp tục định hình tương lai của chúng ta, cộng đồng hacker có đạo đức sẽ luôn cam kết đảm bảo sự tích hợp an toàn của nó.

Sự kết hợp giữa tự động hóa với mạng lưới tin tặc có tay nghề cao có nghĩa là các công ty có thể xác định chính xác các lỗi ứng dụng quan trọng trước khi chúng bị khai thác. Khi các tổ chức kết hợp hiệu quả các công cụ bảo mật tự động với hack có đạo đức, họ sẽ thu hẹp khoảng cách trên bề mặt tấn công kỹ thuật số ngày càng phát triển. 

Điều này là do con người và AI có thể làm việc cùng nhau để cải thiện năng suất của nhóm bảo mật: 

  1. Trinh sát bề mặt tấn công: Các tổ chức hiện đại có thể phát triển cơ sở hạ tầng CNTT rộng lớn và phức tạp bao gồm nhiều loại phần cứng và phần mềm được cấp phép và không được cấp phép. Việc phát triển một chỉ mục toàn diện về các tài sản CNTT như phần mềm và phần cứng là rất quan trọng để giảm thiểu các lỗ hổng bảo mật, hợp lý hóa việc quản lý bản vá và hỗ trợ tuân thủ các yêu cầu của ngành. Nó cũng giúp xác định và phân tích các điểm mà kẻ tấn công có thể nhắm mục tiêu vào một tổ chức.
  2. Đánh giá liên tục: Vượt ra ngoài phạm vi bảo mật theo thời điểm, các tổ chức có thể kết hợp sự khéo léo của các chuyên gia bảo mật con người với những hiểu biết sâu sắc về bề mặt tấn công theo thời gian thực để đạt được thử nghiệm liên tục trong bối cảnh kỹ thuật số. Thử nghiệm thâm nhập liên tục cho phép các nhóm CNTT xem kết quả của các mô phỏng liên tục cho thấy hình thức vi phạm trong môi trường hiện tại và các điểm yếu tiềm ẩn mà các nhóm có thể thích ứng trong thời gian thực.
  3. Cải tiến quy trình: Tin tặc đáng tin cậy của con người có thể cung cấp cho các nhóm bảo mật thông tin có giá trị về các lỗ hổng và tài sản để hỗ trợ cải tiến quy trình..

Kết luận

Khi AI tổng hợp tiếp tục phát triển với tốc độ nhanh chóng như vậy, CISO phải tận dụng sự hiểu biết của họ về cách con người có thể cộng tác để tăng cường bảo mật AI và thu hút sự hỗ trợ từ hội đồng quản trị và đội ngũ lãnh đạo của họ. Kết quả là, các tổ chức có thể có đủ nhân sự và nguồn lực để giải quyết những thách thức này một cách hiệu quả. Tạo sự cân bằng hợp lý giữa triển khai AI nhanh chóng và bảo mật toàn diện thông qua cộng tác với các tin tặc có đạo đức sẽ củng cố lập luận về việc đầu tư vào các giải pháp hỗ trợ AI phù hợp.

Dấu thời gian:

Thêm từ PHỔ THÔNG DỮ LIỆU