Nhà phát triển Bored Apes từ bỏ hệ thống huấn luyện quân sự US-UK

Nhà phát triển Bored Apes từ bỏ hệ thống huấn luyện quân sự US-UK

Nút nguồn: 1772253

Bạn đã bao giờ đăng ảnh của mình lên các nền tảng truyền thông xã hội như Facebook, Instagram, Tik Tok và những nền tảng khác chưa? Nếu vậy, có lẽ đã đến lúc xem xét lại những bài đăng đó.

Điều này là do công nghệ tạo hình ảnh AI mới hiện cho phép người dùng lưu một loạt ảnh và khung hình video của bạn, sau đó huấn luyện nó để tạo ra các bức ảnh giả “thực tế” mô tả bạn ở những tư thế hết sức xấu hổ, bất hợp pháp và đôi khi gây nguy hiểm.

Chà, không phải ai cũng gặp rủi ro nhưng mối đe dọa là có thật.

Mặc dù các bức ảnh luôn có xu hướng thao tác và sự giả mạo từ thời đại của phòng tối, nơi các bộ phim được xử lý bằng kéo và dán ngay cho đến quá trình chỉnh sửa pixel ngày nay.

Mặc dù vào thời đó, đó là một nhiệm vụ khó khăn và đòi hỏi một mức độ kỹ năng chuyên môn nhất định, nhưng ngày nay, việc tạo ra những tác phẩm giả ảnh chân thực thuyết phục đã trở nên quá dễ dàng.

Đầu tiên, một mô hình AI phải học cách kết xuất hoặc tổng hợp hình ảnh của ai đó thành ảnh từ mô hình 2D hoặc 3D thông qua phần mềm. Sau khi hình ảnh được hiển thị thành công, hình ảnh tự nhiên trở thành một thứ đồ chơi cho công nghệ và có khả năng tạo ra số lượng hình ảnh vô hạn.

Khi một người chọn chia sẻ mô hình AI, những người khác cũng có thể tham gia và bắt đầu tạo hình ảnh của người đó.

Công nghệ AI tạo ra những hình ảnh giả sâu đầy sức sống

Thực hay do AI tạo ra?

Nghiên cứu trường hợp truyền thông xã hội

Một tình nguyện viên được mô tả là “dũng cảm” bởi Ars Technica, một ấn phẩm công nghệ, người ban đầu đã cho phép công ty sử dụng hình ảnh của mình để tạo ra hàng giả, đã thay đổi ý định.

Điều này là do ngay lập tức, kết quả của các hình ảnh được hiển thị từ Mô hình AI quá thuyết phục và quá gây tổn hại đến danh tiếng cho tình nguyện viên.

Với rủi ro danh tiếng cao, một người hư cấu do AI tạo ra, John, đã trở thành một lựa chọn tự nhiên.

John, anh chàng hư cấu, là một giáo viên tiểu học, giống như nhiều người khác đã đăng hình ảnh của anh ấy lên Facebook tại nơi làm việc, thư giãn ở nhà và tại một số sự kiện như vậy.

Những hình ảnh phần lớn không gây khó chịu về “John” đã được hiển thị và sau đó được sử dụng để huấn luyện AI đặt anh ta vào những vị trí dễ thỏa hiệp hơn.

Chỉ từ bảy hình ảnh, AI có thể được đào tạo để tạo ra những hình ảnh khiến nó trông như thể John đang sống một cuộc sống hai mặt và bí mật. Chẳng hạn, anh ấy xuất hiện như một người thích chụp ảnh tự sướng khỏa thân trong lớp học của mình.

Vào ban đêm, anh ấy đến quán bar trông như một chú hề.

Vào cuối tuần, anh ta là thành viên của một nhóm bán quân sự cực đoan.

AI cũng tạo ra ấn tượng rằng anh ta đã từng ngồi tù vì tội sử dụng ma túy bất hợp pháp nhưng đã che giấu sự thật này với chủ của mình.

Trong một bức ảnh khác, John, người đã kết hôn, được nhìn thấy đang tạo dáng bên cạnh một người phụ nữ khỏa thân không phải vợ anh ta trong văn phòng.

Sử dụng trình tạo hình ảnh AI có tên Khuếch tán ổn định (phiên bản 1.5) và một kỹ thuật có tên là Dreambooth, Ars Technica đã có thể huấn luyện AI cách tạo ảnh của John theo bất kỳ phong cách nào. Mặc dù John là một tác phẩm hư cấu, nhưng về mặt lý thuyết, bất kỳ ai cũng có thể đạt được cùng một nhóm kết quả từ năm hình ảnh trở lên. Những hình ảnh này có thể được lấy từ các tài khoản mạng xã hội hoặc được chụp dưới dạng khung hình tĩnh từ video.

Quá trình dạy AI cách tạo ra hình ảnh của John mất khoảng một giờ và miễn phí nhờ dịch vụ điện toán đám mây của Google.

Khi quá trình đào tạo hoàn tất, việc tạo ra các hình ảnh mất vài giờ, ấn phẩm cho biết. Và điều này không phải vì việc tạo ra các hình ảnh là một quá trình hơi chậm mà bởi vì cần phải lược bỏ một số “bức ảnh không hoàn hảo” và sử dụng kiểu gợi ý “thử và sai” để tìm ra những hình ảnh tốt nhất.

Nghiên cứu cho thấy rằng nó dễ dàng hơn rất nhiều so với việc cố gắng tạo ra một bức ảnh giả thực tế về “John” trong Photoshop từ đầu.

Nhờ công nghệ, những người như John có thể bị coi là họ hành động bất hợp pháp hoặc thực hiện các hành vi vô đạo đức như đột nhập nhà riêng, sử dụng ma túy bất hợp pháp và tắm khỏa thân với học sinh. Nếu các mô hình AI được tối ưu hóa cho nội dung khiêu dâm, những người như John có thể trở thành ngôi sao khiêu dâm gần như chỉ sau một đêm.

Người ta cũng có thể tạo ra hình ảnh John đang làm những việc tưởng chừng như vô hại nhưng lại có thể tàn phá nếu anh ta say khướt tại một quán bar khi anh ta đã cam kết cai rượu.

Nó không kết thúc ở đó.

Một người cũng có thể xuất hiện trong một khoảnh khắc nhẹ nhàng hơn với tư cách là một hiệp sĩ thời trung cổ hoặc một phi hành gia. Trong một số trường hợp, mọi người có thể là cả trẻ và già hoặc thậm chí ăn mặc.

Tuy nhiên, kết xuất hình ảnh còn lâu mới hoàn hảo. Nhìn kỹ hơn có thể nhận ra chúng là hàng giả.

Nhược điểm là công nghệ tạo ra những bức ảnh này đã được nâng cấp đáng kể và có thể khiến người dùng không thể phân biệt được đâu là ảnh thật và đâu là ảnh tổng hợp.

Tuy nhiên, bất chấp những sai sót của chúng, những thứ giả mạo có thể khiến John bị nghi ngờ và có khả năng hủy hoại danh tiếng của anh ấy.

Gần đây, một số người đã sử dụng kỹ thuật tương tự này (với người thật) để tạo ra những bức ảnh hồ sơ kỳ quặc và nghệ thuật của chính họ.

Ngoài ra các dịch vụ và ứng dụng thương mại như ống kính đã mọc lên như nấm để xử lý việc đào tạo.

Học như thế nào?

Tác phẩm về John có vẻ đáng chú ý nếu một người không chạy theo xu hướng. Ngày nay, các kỹ sư phần mềm biết cách tạo ra những hình ảnh chân thực mới về bất cứ thứ gì mà người ta có thể tưởng tượng.

Ngoài các bức ảnh, AI đã gây tranh cãi khi cho phép mọi người tạo ra tác phẩm nghệ thuật mới sao chép tác phẩm của các nghệ sĩ hiện có mà không có sự cho phép của họ.

Bị đình chỉ vì những lo ngại về đạo đức

Mitch Jackson, một luật sư công nghệ Hoa Kỳ bày tỏ lo ngại về sự gia tăng của công nghệ giả sâu trên thị trường và cho biết ông sẽ nghiên cứu các tác động pháp lý của công nghệ trong hầu hết năm 2023.

"Phân biệt giữa đâu là thật và đâu là giả cuối cùng sẽ trở nên bất khả thi đối với hầu hết người tiêu dùng.”

Adobe đã có công nghệ âm thanh gọi là Adobe VoCo cho phép bất kỳ ai cũng có thể nghe giống hệt người khác. Công việc trên Adobe VoCo đã bị đình chỉ do những lo ngại về đạo đức, nhưng hàng chục công ty khác đang hoàn thiện công nghệ này, với một số lựa chọn thay thế đang được cung cấp hiện nay. Hãy xem, hoặc lắng nghe, cho chính mình,” Mitchum nói.

Ông nói: “Các phiên bản hình ảnh và video của deep fake video ngày càng tốt hơn.

“Đôi khi, không thể phân biệt video giả với video thật,” anh nói thêm.

Khuếch tán ổn định sử dụng mô hình tổng hợp hình ảnh học sâu có thể tạo hình ảnh mới từ mô tả văn bản và có thể chạy trên PC chạy Windows hoặc Linux, trên máy Mac hoặc trên đám mây trên phần cứng máy tính thuê.

Mạng thần kinh của Khuếch tán ổn định nhờ sự trợ giúp của quá trình học tập chuyên sâu đã thành thạo cách liên kết các từ và liên kết thống kê chung giữa các vị trí của pixel trong hình ảnh.

Do đó, người ta có thể đưa ra lời nhắc cho Stable Diffusion, chẳng hạn như “Tom Hanks trong lớp học” và nó sẽ cung cấp cho người dùng một hình ảnh mới về Tom Hanks trong lớp học.

Trong trường hợp của Tom Hank, đó là một cuộc dạo chơi trong công viên vì hàng trăm bức ảnh của anh ấy đã có trong bộ dữ liệu được sử dụng để đào tạo Khuếch tán ổn định. Nhưng để tạo ra hình ảnh của những người như John, AI sẽ cần một chút trợ giúp.

Đó là nơi Dreambooth bắt đầu.

Dreambooth, được các nhà nghiên cứu của Google ra mắt vào ngày 30 tháng XNUMX, sử dụng một kỹ thuật đặc biệt để đào tạo Khuếch tán ổn định thông qua một quy trình gọi là “tinh chỉnh”.

Lúc đầu, Dreambooth không được liên kết với Khuếch tán ổn định và Google đã không cung cấp mã nguồn của nó vì lo ngại bị lạm dụng.

Ngay lập tức, ai đó đã tìm ra cách điều chỉnh kỹ thuật Dreambooth để hoạt động với Stable Diffusion và phát hành mã miễn phí dưới dạng một dự án mã nguồn mở, biến Dreambooth trở thành một cách rất phổ biến để các nghệ sĩ AI dạy các phong cách nghệ thuật mới của Stable Diffusion.

tác động trên toàn thế giới

Ước tính có khoảng 4 tỷ người trên toàn thế giới sử dụng mạng xã hội. Vì nhiều người trong chúng ta đã tải lên nhiều hơn một số ít ảnh của chính mình, nên chúng ta cũng có thể trở nên dễ bị tấn công như vậy.

Mặc dù tác động của công nghệ tổng hợp hình ảnh đã được mô tả từ quan điểm của nam giới, nhưng phụ nữ cũng có xu hướng chịu gánh nặng của điều này.

Khi khuôn mặt hoặc cơ thể của một người phụ nữ được hiển thị, danh tính của cô ấy có thể được đưa vào hình ảnh khiêu dâm một cách tinh quái.

Điều này đã được thực hiện nhờ số lượng lớn hình ảnh gợi dục được tìm thấy trong các bộ dữ liệu được sử dụng trong đào tạo AI.

Nói cách khác, điều này có nghĩa là AI đã quá quen thuộc với cách tạo ra những hình ảnh khiêu dâm đó.

Trong nỗ lực giải quyết một số vấn đề đạo đức này, Stability AI đã buộc phải xóa tài liệu NSFW khỏi bộ dữ liệu đào tạo của mình cho bản phát hành 2.0 gần đây hơn.

Mặc dù giấy phép phần mềm của nó cấm mọi người sử dụng trình tạo AI để tạo hình ảnh của mọi người mà không có sự cho phép của họ, nhưng có rất ít hoặc không có khả năng thực thi.

Trẻ em cũng không an toàn trước những hình ảnh tổng hợp và có thể bị bắt nạt khi sử dụng công nghệ này ngay cả trong trường hợp hình ảnh không bị chỉnh sửa.

Công nghệ AI tạo ra những hình ảnh giả sâu đầy sức sống

Do con người tạo ra?

Có bất cứ điều gì chúng ta có thể làm về nó?

Danh sách những việc cần làm thay đổi từ người này sang người khác. Một cách là thực hiện bước quyết liệt để xóa tất cả hình ảnh ngoại tuyến cùng nhau.

Mặc dù điều đó có thể hiệu quả với những người bình thường, nhưng đó không phải là giải pháp cho những người nổi tiếng và những nhân vật của công chúng khác.

Tuy nhiên, trong tương lai, mọi người có thể tự bảo vệ mình khỏi việc lạm dụng ảnh thông qua các phương tiện kỹ thuật. Các trình tạo hình ảnh AI trong tương lai có thể bị buộc phải nhúng các hình mờ vô hình vào đầu ra của chúng một cách hợp pháp.

Bằng cách đó, hình mờ của chúng có thể được đọc sau này và giúp mọi người dễ dàng biết chúng là hàng giả.

"Quy định rộng rãi là cần thiết. Bất kỳ phần nào của nội dung bị thao túng hoặc giả mạo đều phải hiển thị nổi bật một chữ cái hoặc cảnh báo, giống như phim (G, PG, R và X). Có thể là thứ gì đó như Digitally Altered hoặc DA," Mitchum nói.

Ổn định AI đã ra mắt Ổn định khuếch tán dưới dạng một dự án mã nguồn mở trong năm nay.

Theo tín dụng của mình, Stable Diffusion đã sử dụng hình mờ được nhúng theo mặc định, nhưng những người truy cập phiên bản nguồn mở của nó có xu hướng sử dụng nó bằng cách vô hiệu hóa thành phần hình mờ của phần mềm hoặc xóa hoàn toàn.

MIT để giảm thiểu

Mặc dù điều này hoàn toàn là suy đoán, nhưng một hình mờ được thêm vào ảnh cá nhân một cách tự nguyện có thể làm gián đoạn quá trình đào tạo Dreambooth. Một nhóm các nhà nghiên cứu của MIT cho biết PhotoGuard, một quy trình đối nghịch nhằm mục đích bảo vệ và bảo vệ AI khỏi việc tổng hợp ảnh hiện có thông qua các sửa đổi nhỏ thông qua việc sử dụng phương pháp đánh dấu mờ vô hình. Tuy nhiên, điều này chỉ giới hạn trong các trường hợp sử dụng chỉnh sửa AI (thường được gọi là “inpainting”) và không bao gồm đào tạo hoặc tạo hình ảnh.

"Trí tuệ nhân tạo đang tiếp quản việc viết lách và vẽ tranh! Giả mạo sâu sắc sẽ làm hỏng video!
Tốt.
Điều đó có nghĩa là buổi biểu diễn trực tiếp càng trở nên có giá trị HƠN. Triển lãm thương mại sẽ phát triển mạnh. Con người muốn làm kinh doanh với con người.
Không gian thịt vẫn là không gian tốt nhất" Jonathan Pitchard nói.

Gần đây, đã có sự phát triển của công nghệ AI viết bài thơ, vần điệu và bài hát. Và một số đó là làm chủ trò chơi.

Các nhà phê bình đã coi những tiến bộ công nghệ một cách tiêu cực và tin rằng AI đang chiếm lấy công việc của con người.

/MetaNews.

Dấu thời gian:

Thêm từ MetaNews