Các chuyên gia của Twitter ủng hộ các tweet từ những người bảo thủ hơn những người theo chủ nghĩa tự do vì chúng tạo ra nhiều sự phẫn nộ hơn trên mạng - nghiên cứu

Nút nguồn: 1321186

Tóm lại Theo bộ ba nhà nghiên cứu từ Trung tâm Truyền thông Xã hội và Chính trị của Đại học New York, các thuật toán của Twitter có nhiều khả năng khuếch đại các chính trị gia cánh hữu hơn các thuật toán cánh tả vì các dòng tweet của họ tạo ra nhiều sự phẫn nộ hơn.

Tuần trước, đơn vị Đạo đức, Minh bạch và Trách nhiệm giải trình (META) của nền tảng truyền thông xã hội nghiên cứu được công bố điều đó cho thấy người dùng có nhiều khả năng nhìn thấy các bài đăng từ các quan chức được bầu thuộc cánh hữu ở sáu quốc gia - bao gồm cả Vương quốc Anh và Hoa Kỳ - so với các quan chức cánh tả của họ. Twitter cho biết họ không biết tại sao các thuật toán của họ lại hoạt động theo cách này.

Tuy nhiên, các nhà khoa học chính trị từ NYU đã tiến hành nghiên cứu riêng về thuật toán của Twitter và họ tin rằng đó là do các tweet từ các chính trị gia bảo thủ gây tranh cãi hơn và thu hút nhiều sự chú ý hơn. Họ đã phân tích số lượt tweet lại từ các tweet do các thành viên Quốc hội của Đảng Cộng hòa và Dân chủ thực hiện kể từ tháng 2021 năm XNUMX và tìm ra mô hình tương tự mà các kỹ sư của Twitter đã làm.

“Tại sao thuật toán của Twitter lại khuyến khích các chính trị gia bảo thủ? Nghiên cứu của chúng tôi cho thấy một lý do khó tin nhưng có vẻ hợp lý: Đó là vì họ đã chìm đắm quá nhiều,” họ nói. đã viết trong một bài bình luận trên tờ Washington Post. Người dùng Twitter có nhiều khả năng phản ứng và đăng lại bài đăng của họ hơn, điều đó có nghĩa là những bài đăng này có nhiều khả năng xuất hiện trên dòng thời gian của mọi người hơn.

Microsoft bắt đầu khởi động kiểm duyệt nội dung AI

Microsoft thông báo họ đã mua lại Two Hat, một công ty tập trung vào việc xây dựng các công cụ tự động để kiểm duyệt nội dung trực tuyến, nhằm ngăn chặn lời nói căm thù lan rộng trong cộng đồng trên Xbox, Minecraft và MSN.

Cả hai công ty đã làm việc cùng nhau được vài năm rồi. Số tiền tiếp quản không được tiết lộ. Họ sẽ làm việc cùng nhau để kết hợp và triển khai các công cụ của Two Hat trên các ứng dụng đám mây của Microsoft. Two Hat sẽ tiếp tục hợp tác với các khách hàng hiện tại của Microsoft.

“Chúng tôi hiểu những thách thức phức tạp mà các tổ chức phải đối mặt ngày nay khi nỗ lực kiểm duyệt các cộng đồng trực tuyến một cách hiệu quả,” Dave McCarthy, Phó Giám đốc Công ty Dịch vụ Sản phẩm Xbox, cho biết. nói trong một tuyên bố. “Trong thế giới kỹ thuật số luôn thay đổi của chúng ta, nhu cầu cấp thiết về các giải pháp kiểm duyệt có thể quản lý nội dung trực tuyến một cách hiệu quả và có thể mở rộng.”

“Với việc mua lại này, chúng tôi sẽ giúp các cộng đồng trực tuyến toàn cầu trở nên an toàn và hòa nhập hơn để mọi người tham gia, đóng góp tích cực và phát triển.”

GitHub Copilot có thành công không?

Có tới 30% mã mới được các nhà phát triển tải lên GitHub được viết với sự trợ giúp của công cụ lập trình cặp AI của nó Phi công phụ rõ ràng là đối với một số ngôn ngữ.

Thật khó để đánh giá mức độ phổ biến của Copilot đối với người dùng vì Báo cáo Axios không cung cấp nhiều chi tiết. Không rõ ngôn ngữ mã hóa nào được sử dụng nhiều nhất với Codex (nền tảng của Copilot) và khoảng thời gian mã được gửi cũng không rõ ràng. Đã qua tháng trước rồi phải không? Ba tháng?

Oege de Moor, Phó chủ tịch GitHub Next, cho biết: “Chúng tôi nghe rất nhiều từ người dùng rằng cách viết mã của họ đã thay đổi khi sử dụng Copilot. “Nhìn chung, họ có thể làm việc mã hóa hiệu quả hơn nhiều.”

Copilot hoạt động bằng cách đề xuất các dòng mã khi bạn nhập giống như tính năng tự động hoàn thành đang cố gắng hoàn thành các câu. Nó được xây dựng bằng mô hình Codex của OpenAI, một hệ thống dựa trên máy biến áp giống GPT-3, được đào tạo trên hàng tỷ dòng mã được lấy từ GitHub thay vì văn bản từ internet. Nó có vẻ hiệu quả khi các nhà phát triển đang viết các khối mã mẫu đơn giản nhưng lại gặp khó khăn khi các tập lệnh trở nên chuyên biệt hơn.

Chip Gaudi của Intel hiện có sẵn thông qua AWS

Chip đào tạo AI của Intel (được gọi là Gaudi) được chế tạo bởi Habana Labs, công ty khởi nghiệp Israel Chipzilla mua lại vào năm 2019, hiện đã có sẵn rộng rãi trên AWS dưới dạng một loại phiên bản đám mây mới.

Các phiên bản DL1 này chạy trên tám bộ tăng tốc Gaudi, cung cấp 256GB bộ nhớ băng thông cao, 768GB bộ nhớ trong và hoạt động song song với bộ xử lý Intel Xeon Scalable (Cascade Lake) tùy chỉnh của Amazon thế hệ thứ 2. Chúng cũng bao gồm thông lượng mạng 400GB mỗi giây và bộ nhớ NVMe cục bộ lên tới 4TB.

Chi phí chạy các phiên bản DL1 này trên máy của bạn để huấn luyện các mô hình AI và những thứ khác sẽ khiến bạn mất khoảng 13 USD nếu bạn ở khu vực Miền Đông Hoa Kỳ hoặc Miền Tây Hoa Kỳ.

“Việc sử dụng máy học đã tăng vọt. Tuy nhiên, một trong những thách thức với việc đào tạo các mô hình học máy là nó đòi hỏi tính toán chuyên sâu và có thể tốn kém khi khách hàng tinh chỉnh và đào tạo lại mô hình của họ.” nói David Brown, Phó chủ tịch Amazon EC2, tại AWS.

“Việc bổ sung các phiên bản DL1 có bộ tăng tốc Gaudi mang lại giải pháp thay thế hiệu quả nhất về mặt chi phí cho các phiên bản dựa trên GPU trên đám mây cho đến nay. Sự kết hợp tối ưu giữa giá cả và hiệu suất của họ giúp khách hàng có thể giảm chi phí đào tạo, đào tạo nhiều mô hình hơn và đổi mới nhanh hơn.” ®

Nguồn: https://go.theregister.com/feed/www.theregister.com/2021/10/30/in_brief_ai/

Dấu thời gian:

Thêm từ Đăng ký