Twitters algoer favoriserer tweets fra konservative frem for liberale, fordi de genererer mere forargelse online – undersøgelse

Kildeknude: 1321186

Kort om Twitters algoritmer er mere tilbøjelige til at forstærke højreorienterede politikere end venstreorienterede, fordi deres tweets genererer mere forargelse, ifølge en trio af forskere fra New York Universitys Center for Social Media and Politics.

I sidste uge, den sociale medieplatforms ML Ethics, Transparency and Accountability (META) enhed offentliggjort forskning som viste, at brugere var mere tilbøjelige til at se indlæg fra højreorienterede folkevalgte i seks lande – inklusive Storbritannien og USA – end deres venstreorienterede kolleger. Twitter sagde, at det ikke vidste, hvorfor dets algoritmer opførte sig på denne måde.

Politiske videnskabsmænd fra NYU har imidlertid foretaget deres egen forskning i Twitters algoritmer, og de mener, at det skyldes, at tweets fra konservative politikere er mere kontroversielle og tiltrækker mere opmærksomhed. De har analyseret antallet af retweets fra tweets lavet af kongresmedlemmer af det republikanske og demokratiske parti siden januar 2021 og fundet det samme mønster, som Twitters ingeniører gjorde.

"Hvorfor ville Twitters algoritmer fremme konservative politikere? Vores forskning tyder på en usandsynlig, men plausibel grund: Det er fordi de bliver dunket på så meget,” de skrev i en udtalelse i Washington Post. Twitter-brugere er mere tilbøjelige til at reagere og retweete deres opslag, hvilket betyder, at disse opslag er mere tilbøjelige til at ende på folks tidslinjer.

Microsoft opstarter AI-indholdsmoderering

Microsoft meddelte, at det har købt Two Hat, et firma, der fokuserer på at bygge automatiserede værktøjer til at moderere indhold online, for at forhindre, at hadefulde ytringer spredes til fællesskaber på Xbox, Minecraft og MSN.

Begge virksomheder har allerede arbejdet sammen i et par år. Overtagelsesbeløbet blev ikke oplyst. De vil arbejde sammen om at inkorporere og udrulle Two Hats værktøjer på Microsofts applikationer over skyen. Two Hat vil fortsætte med at arbejde med sine eksisterende kunder under Microsoft.

"Vi forstår de komplekse udfordringer, organisationer står over for i dag, når de stræber efter effektivt at moderere online-fællesskaber," Dave McCarthy, koncerndirektør for Xbox Product Services, sagde i en udtalelse. "I vores evigt foranderlige digitale verden er der et presserende behov for modereringsløsninger, der kan administrere onlineindhold på en effektiv og skalerbar måde."

"Med dette opkøb vil vi hjælpe globale online-fællesskaber til at være sikrere og inkluderende, så alle kan deltage, bidrage positivt og trives."

Er GitHub Copilot i gang?

Op til 30 procent af den nye kode, der blev uploadet til GitHub af udviklere, blev skrevet ved hjælp af dets AI-parprogrammeringsværktøj CoPilot for nogle sprog, åbenbart.

Det er svært at måle, hvor populær Copilot er blandt brugere, fordi Axios rapport giver ikke mange detaljer. Det er uklart, hvilke kodningssprog der blev brugt mest med Codex (grundlaget for Copilot), og den tidsperiode, hvor koden blev indsendt, er ikke indlysende. Var det i løbet af den sidste måned? Tre måneder?

"Vi hører meget fra vores brugere, at deres kodningspraksis har ændret sig ved brug af Copilot," sagde Oege de Moor, VP for GitHub Next. "Samlet set er de i stand til at blive meget mere produktive i deres kodning."

Copilot fungerer ved at foreslå kodelinjer, mens du skriver, som autofuldførelse, når du prøver at færdiggøre sætninger. Det blev bygget ved hjælp af OpenAI's Codex-model, et GPT-3-lignende transformer-baseret system, trænet på milliarder af linjer kode skrabet fra GitHub i stedet for tekst fra internettet. Det ser ud til at være effektivt, når udviklere skriver simple skabelonblokke med kode, men kæmper, når scripts bliver mere specialiserede.

Intels Gaudi-chips er nu tilgængelige via AWS

Intels AI-træningschips (kendt som Gaudi), der blev bygget af Habana Labs, den israelske startup biz Chipzilla erhvervet i 2019, er nu generelt tilgængelige på AWS som en ny type cloud-instans.

Disse DL1-instanser kører på otte Gaudi-acceleratorer, der giver 256 GB hukommelse med høj båndbredde, 768 GB indbygget hukommelse og arbejder sammen med 2. generation Amazon tilpassede Intel Xeon Scalable (Cascade Lake)-processorer. De inkluderer også 400 GB per sekund netværksgennemstrømning og op til 4 TB lokal NVMe-lagring.

Omkostningerne ved at køre disse DL1-instanser på din maskine for at træne AI-modeller og andet vil sætte dig tilbage for omkring $13, hvis du er i USA's øst- eller vestlige regioner.

”Brugen af ​​machine learning er skudt i vejret. En af udfordringerne ved at træne maskinlæringsmodeller er dog, at det er beregningsintensivt og kan blive dyrt, efterhånden som kunderne forfiner og omskoler deres modeller.” sagde David Brown, vicepræsident for Amazon EC2, hos AWS.

"Tilføjelsen af ​​DL1-instanser med Gaudi-acceleratorer giver det hidtil mest omkostningseffektive alternativ til GPU-baserede instanser i skyen. Deres optimale kombination af pris og ydeevne gør det muligt for kunderne at reducere omkostningerne ved at træne, træne flere modeller og innovere hurtigere." ®

Kilde: https://go.theregister.com/feed/www.theregister.com/2021/10/30/in_brief_ai/

Tidsstempel:

Mere fra Registret