Google lovar 20 miljoner dollar för att finansiera studier av ansvarsfull AI

Google lovar 20 miljoner dollar för att finansiera studier av ansvarsfull AI

Källnod: 2881081

Google har satt ihop 20 miljoner dollar för att finansiera studier av hur artificiell intelligens kan utvecklas och användas ansvarsfullt och ha en positiv inverkan på världen.

"AI har potentialen att göra våra liv enklare och ta itu med några av samhällets mest komplexa utmaningar - som att förebygga sjukdomar, få städer att fungera bättre och förutsäga naturkatastrofer," Brigitte Hoyer Gosselink, chef för produktpåverkan på sökjätten, förklarade i ett uttalande idag. 

"Men det väcker också frågor om rättvisa, partiskhet, desinformation, säkerhet och framtiden för arbetet. Att besvara dessa frågor kommer att kräva djupgående samarbete mellan industri, akademi, regeringar och civilsamhället.”

De 20 miljoner dollar som avsatts för detta Digital Futures Project – inte en massa pengar för Google utan mycket för akademiker och tankesmedjor – kommer att gå till att stödja externa forskare som utforskar hur maskininlärningsteknik kommer att forma samhället när den alltmer inkräktar på människors liv . Projektet är särskilt intresserad av AI:s potential att stärka ekonomier, regeringar och institutioner, och finansierar boffins för att undersöka frågor som:

  • Hur kommer AI att påverka global säkerhet och hur kan den användas för att förbättra säkerheten för institutioner och företag
  • Hur kommer AI att påverka arbetet och ekonomin, vilka steg kan vi ta idag för att omvandla arbetskraften till framtidens AI-aktiverade jobb och hur kan regeringar använda AI för att öka produktiviteten och ekonomisk tillväxt
  • Vilka typer av styrningsstrukturer och branschövergripande insatser kan bäst främja ansvarsfull AI-innovation

Google sa att de redan har delat ut en del av pengarna som bidrag till olika tankesmedjor: Aspen Institute, Brookings Institution, Carnegie Endowment for International Peace, Center for a New American Security, Center for Strategic and International Studies och R Street Institute , samt MIT:s Future of Work, och de ideella organisationerna SeedAI, Institutet för säkerhet och teknik och Leadership Conference Education Fund. 

Precis som andra Big Tech-namn är webbjätten angelägen om att framställa sig själv som en ledare när det gäller att utveckla AI för gott. Under dess AI-principer, lovade Google att bygga tekniken på ett säkert sätt och undvika skadliga fördomar. Den har dock inte alltid lyckats uppfylla sina löften och har hamnat i varmt vatten för vissa av sina produkter.

Bildigenkänningsmjukvara som distribuerades i appen Foton märkte svarta människor som gorillor, till exempel 2015. För att undvika den här typen av fel har Google helt enkelt blockerad användares förmåga att söka igenom sina bilder med hjälp av alla etiketter som är associerade med primater. Andra outfits, som Apple, Microsoft och Amazon, har gjort samma sak med sin egen bildlagringsprogramvara.

På samma sätt var Google kritiserade för att ha bråttom att lansera sin chatbot för internetsökning Bard att konkurrera med Microsofts förnyade chattdrivna Bing-sökning. På dagen för lanseringen fångades Bard när han genererade falsk information i en offentlig demonstration. När chatboten fick en fråga om James Webb Space Telescopes största upptäckter, hävdade den felaktigt "JWST tog de allra första bilderna av en planet utanför vårt eget solsystem."

Faktum är att vår allra första bild av en exoplanet, 2M1207b, faktiskt togs av European Southern Observatorys Very Large Telescope 2004, enligt till NASA.

Det visade sig senare att Microsofts Bing AI inte riktigt var bättre och det genereras felaktig information om platser och från rapporter.

Ändå försöker Google göra sin teknik säkrare och har anslutit sig till andra toppföretag, som OpenAI, Meta, Amazon, Microsoft och andra, för att gå med på regeringsledda revisioner av sina produkter. Dessa sonderingar kommer att fokusera på särskilt riskfyllda områden, såsom cybersäkerhet och biosäkerhet. De lovade också att utveckla digitala vattenmärkningstekniker för att upptäcka AI-genererat innehåll och hantera desinformation.

Förra månaden meddelade forskare vid Google DeepMind SynthID, ett verktyg som subtilt ändrar pixlarna i en bild som genereras av dess modell Imagen för att signalera att det är en syntetisk bild. Samtidigt uppdaterade Google nyligen sitt politiska innehåll regler och kräver nu att alla verifierade valannonsörer avslöjar om deras annonser innehåller AI-genererade bilder, videor eller ljud. Den nya policyn träder i kraft i mitten av november senare i år.

Och Amazon nyligen justerade sin policy för att kräva att författare delar med sig av sitt arbete via e-handelsjättens Kindle Direct Publishing för att avslöja all användning av AI för att generera innehåll. ®

Tidsstämpel:

Mer från Registret