Google lover $20 millioner til at finansiere undersøgelser af ansvarlig kunstig intelligens

Google lover $20 millioner til at finansiere undersøgelser af ansvarlig kunstig intelligens

Kildeknude: 2881081

Google har samlet 20 millioner dollars til at finansiere undersøgelser af, hvordan kunstig intelligens kan udvikles og bruges ansvarligt og have en positiv indvirkning på verden.

"AI har potentialet til at gøre vores liv lettere og løse nogle af samfundets mest komplekse udfordringer - som at forebygge sygdomme, få byer til at fungere bedre og forudsige naturkatastrofer," Brigitte Hoyer Gosselink, direktør for produktpåvirkning hos søgegiganten, forklarede i en meddelelse i dag. 

"Men det rejser også spørgsmål om retfærdighed, bias, misinformation, sikkerhed og fremtidens arbejde. At besvare disse spørgsmål vil kræve dybt samarbejde mellem industrien, den akademiske verden, regeringer og civilsamfundet."

De 20 millioner dollars, der er afsat til dette Digital Futures-projekt – ikke en masse penge til Google, men en masse til akademikere og tænketanke – vil gå til at støtte eksterne forskere, der undersøger, hvordan maskinlæringsteknologi vil forme samfundet, efterhånden som det i stigende grad griber ind i folks liv . Projektet er særligt interesseret i AI's potentiale til at hæve økonomier, regeringer og institutioner og finansierer boffins til at undersøge spørgsmål som:

  • Hvordan vil AI påvirke global sikkerhed, og hvordan kan det bruges til at øge sikkerheden for institutioner og virksomheder
  • Hvordan vil AI påvirke arbejdskraft og økonomi, hvilke skridt kan vi tage i dag for at omstille arbejdsstyrken til fremtidens AI-aktiverede job, og hvordan kan regeringer bruge AI til at øge produktiviteten og økonomisk vækst
  • Hvilken slags styringsstrukturer og tværfaglige indsatser kan bedst fremme ansvarlig AI-innovation

Google sagde, at det allerede har uddelt nogle af pengene som tilskud til forskellige tænketanke: Aspen Institute, Brookings Institution, Carnegie Endowment for International Peace, Center for a New American Security, Center for Strategic and International Studies og R Street Institute , samt MIT's Future of Work og nonprofitorganisationerne SeedAI, Institute for Security and Technology og Leadership Conference Education Fund. 

Ligesom andre Big Tech-navne er webgiganten opsat på at fremstille sig selv som førende inden for udvikling af AI for altid. Under dens AI-principper, lovede Google at bygge teknologien sikkert og undgå skadelige skævheder. Det har dog ikke altid formået at opfylde sine løfter, og er landet i varmt vand for nogle af sine produkter.

Billedgenkendelsessoftware, der blev implementeret på sin Fotos-app, mærkede sorte mennesker som gorillaer, for eksempel i 2015. For at undgå denne form for fejl, Google simpelthen blokeret brugernes evner til at søge gennem deres billeder ved hjælp af etiketter forbundet med primater. Andre outfits, såsom Apple, Microsoft og Amazon, har gjort det samme med deres egen billedlagringssoftware.

På samme måde var Google kritiserede for at skynde sig at udrulle sin internetsøgning chatbot Bard at konkurrere med Microsofts fornyede chat-drevne Bing-søgning. På dagen for lanceringen blev Bard fanget i at generere falsk information i en offentlig demonstration. Da chatbotten blev stillet et spørgsmål om James Webb-rumteleskopets største opdagelser, hævdede den forkert "JWST tog de allerførste billeder af en planet uden for vores eget solsystem."

Faktisk blev vores allerførste billede af en exoplanet, 2M1207b, faktisk taget af European Southern Observatory's Very Large Telescope i 2004, ifølge til NASA.

Det blev senere konstateret, at Microsofts Bing AI ikke rigtig var bedre, og det genereret forkerte oplysninger om steder og fra rapporter.

Alligevel forsøger Google at gøre sin teknologi mere sikker og har tilsluttet sig andre topvirksomheder, såsom OpenAI, Meta, Amazon, Microsoft og andre, for at acceptere regeringsledede revisioner af sine produkter. Disse sonder vil fokusere på særligt risikable områder, såsom cybersikkerhed og biosikkerhed. De lovede også at udvikle digitale vandmærketeknikker til at opdage AI-genereret indhold og tackle desinformation.

I sidste måned meddelte forskere hos Google DeepMind SynthID, et værktøj, der subtilt ændrer pixels i et billede genereret af dens model Imagen for at signalere, at det er et syntetisk billede. I mellemtiden har Google også for nylig opdateret sit politiske indhold regler og kræver nu, at alle verificerede valgannoncører oplyser, om deres annoncer indeholder AI-genererede billeder, videoer eller lyd. Den nye politik træder i kraft i midten af ​​november senere i år.

Og Amazon lige for nylig justerede sine politikker for at kræve, at forfattere deler deres arbejde via e-handelsgigantens Kindle Direct Publishing til afsløre enhver brug af AI til at generere indhold. ®

Tidsstempel:

Mere fra Registret