OpenAI sluit gebruik bij verkiezingen en onderdrukking van kiezers uit

OpenAI sluit gebruik bij verkiezingen en onderdrukking van kiezers uit

Bronknooppunt: 3073710

In een beslissende stap om desinformatie bij verkiezingen te bestrijden heeft OpenAI een rigoureus standpunt tegen het gebruik van zijn generatieve AI-instrumenten in verkiezingscampagnes en tactieken om kiezers te onderdrukken.

Deze aankondiging is een essentiële stap in de richting van het waarborgen van de integriteit van talrijke belangrijke verkiezingen die voor 2024 gepland staan.

Lees ook: OpenAI onderhandelt over licenties voor nieuwsinhoud met CNN, Fox en Time

Misbruik bestrijden met innovatie en beleid

OpenAI heeft een strategie geïnitieerd om te voorkomen dat zijn technologie wordt uitgebuit om verkiezingsuitslagen te manipuleren. Het bedrijf heeft een gespecialiseerd team samengesteld dat zich richt op verkiezingsgerelateerde kwesties, waarbij de expertise van verschillende afdelingen, waaronder juridische, technische en beleidsafdelingen, wordt samengevoegd. Het primaire doel van dit team is het identificeren en beperken van mogelijk misbruik van AI bij verkiezingen.

“We hebben een cross-functionele inspanning gewijd aan verkiezingswerk, waarbij we de expertise van onze veiligheidssystemen, dreigingsinformatie, juridische, technische en beleidsteams samenbrengen.”

De dreiging van desinformatie in de politiek is niet nieuw, maar toch brengt de komst van AI-technologie ongekende uitdagingen met zich mee. OpenAI onderkent dit en neemt proactieve maatregelen. Het bedrijf is van plan een mix van technieken te gebruiken, zoals red teaming, gebruikersbetrokkenheid en veiligheidsleuningen. Vooral hun imago generatietool, DALL-E, is bijgewerkt om te voorkomen dat er afbeeldingen worden gemaakt van echte mensen, inclusief politieke kandidaten.

“DALL·E heeft vangrails om verzoeken af ​​te wijzen die vragen om het genereren van afbeeldingen van echte mensen, inclusief kandidaten.”

OpenAI herziet voortdurend zijn gebruikersbeleid om gelijke tred te houden met het veranderende landschap van AI-technologie en het mogelijke misbruik ervan. Het bijgewerkte veiligheidsbeleid beperkt nu expliciet de ontwikkeling van AI-toepassingen voor politieke campagnes en lobbyen. Daarnaast zijn er maatregelen genomen om de creatie van chatbots te voorkomen die echte mensen of organisaties nabootsen.

Meer transparantie en verantwoording

Een belangrijk onderdeel van de strategie van OpenAI is de introductie van een herkomstclassificatie voor zijn DALL-E-tool. Deze functie, die momenteel in bètatestfase is, kan afbeeldingen detecteren die zijn gegenereerd door DALL-E. Het bedrijf wil deze tool toegankelijk maken voor journalisten, platforms en onderzoekers om de transparantie in door AI gegenereerde inhoud te vergroten.

“We zijn van plan het binnenkort beschikbaar te stellen aan onze eerste groep testers – waaronder journalisten, platforms en onderzoekers – voor feedback.”

OpenAI integreert ook realtime nieuwsrapportage in ChatGPT. Deze integratie heeft tot doel gebruikers te voorzien van nauwkeurige en tijdige informatie, waardoor de transparantie rond de informatiebronnen die door de AI worden geleverd, wordt vergroot.

In een gezamenlijke inspanning met de National Association of Secretary of State in de VS wil OpenAI voorkomen dat zijn technologie de verkiezingsdeelname ontmoedigt. Het teamwerk houdt in dat gebruikers van GPT-chatbots naar betrouwbare websites met steminformatie worden geleid, zoals CanIVote.org.

Rivalen volgen dit voorbeeld in de AI-race

De aankondiging van OpenAI heeft een precedent geschapen in de AI-industrie, met rivalen als Google LLC en Meta Platforms Inc. implementeren ook maatregelen om de verspreiding van desinformatie via hun technologieën tegen te gaan. Deze collectieve inspanning van leiders uit de sector duidt op een groeiend bewustzijn en een groeiende verantwoordelijkheid ten aanzien van de potentiële impact van AI op democratische processen.

Maar is dit genoeg? Charles King van Pund-IT Inc. brengt een cruciaal punt naar voren en vraagt ​​zich af of deze maatregelen tijdig of reactief zijn. Hij stelt dat er al jaren zorgen bestaan ​​over door AI gegenereerde desinformatie, en dat de recente aankondiging van OpenAI als te weinig en te laat kan worden beschouwd. Dit perspectief lokt een diepere reflectie uit over de rol en verantwoordelijkheid van AI-ontwikkelaars in het politieke landschap.

“Dus in het beste geval suggereert deze aankondiging dat OpenAI op de schakelaar lag te slapen. Maar in het slechtste geval lijkt het op een handenwasritueel waar OpenAI op kan wijzen wanneer generatieve AI de aandacht trekt tijdens de komende mondiale verkiezingen dit jaar.”

Tijdstempel:

Meer van MetaNieuws