OpenAI виключає використання під час виборів і придушення виборців

OpenAI виключає використання під час виборів і придушення виборців

Вихідний вузол: 3073710

Здійснюючи рішучий крок у боротьбі з дезінформацією під час виборів, OpenAI оголосив a сувора позиція проти використання своїх генеративних інструментів ШІ у виборчих кампаніях і тактики придушення виборців.

Це оголошення є суттєвим кроком до забезпечення чесності численних ключових виборів, запланованих на 2024 рік.

Читайте також: OpenAI веде переговори про ліцензування новинного вмісту з CNN, Fox і Time

Боротьба з неправильним використанням за допомогою інновацій та політики

OpenAI запровадив стратегію захисту своєї технології від використання для маніпулювання результатами виборів. Компанія створила спеціалізовану команду, яка зосереджується на питаннях, пов’язаних з виборами, об’єднавши досвід різних відділів, зокрема юридичного, інженерного та політичного. Основна мета цієї команди — виявити та пом’якшити потенційне зловживання ШІ під час виборів.

«У нас багатофункціональні зусилля, присвячені виборчій роботі, об’єднуючи досвід наших систем безпеки, аналізу загроз, юридичних, інженерних і політичних команд».

Загроза дезінформації в політиці не є новою, але поява технології ШІ створює безпрецедентні виклики. Розуміючи це, OpenAI вживає профілактичних заходів. Компанія планує застосувати поєднання таких методів, як «червона команда», залучення користувачів і огорожі безпеки. Зокрема, їхній імідж інструмент генерації, DALL-E, було оновлено, щоб запобігти створенню зображень із зображенням реальних людей, у тому числі політичних кандидатів.

«У DALL·E є механізми для відхилення запитів, які просять створити імідж реальних людей, у тому числі кандидатів».

OpenAI постійно переглядає свою політику щодо користувачів, щоб йти в ногу з розвитком технології штучного інтелекту та її потенційним зловживанням. Його оновлена ​​політика безпеки тепер явно обмежує розробку додатків ШІ для політичних кампаній і лобіювання. Крім того, були вжиті заходи для запобігання створенню чат-ботів, які імітують реальних людей або організації.

Підвищення прозорості та підзвітності

Ключовим компонентом стратегії OpenAI є запровадження класифікатора походження для інструменту DALL-E. Ця функція, яка зараз знаходиться в стадії бета-тестування, може виявляти зображення, створені DALL-E. Компанія прагне зробити цей інструмент доступним для журналістів, платформ і дослідників, щоб підвищити прозорість контенту, створеного ШІ.

«Незабаром ми плануємо зробити його доступним для нашої першої групи тестувальників, включаючи журналістів, платформи та дослідників, для отримання відгуків».

OpenAI також інтегрує звіти про новини в режимі реального часу ChatGPT. Ця інтеграція має на меті надавати користувачам точну та своєчасну інформацію, підвищуючи прозорість джерел інформації, яку надає ШІ.

Спільно з Національною асоціацією державних секретарів США OpenAI зосереджується на тому, щоб запобігти перешкоджанню своєї технології участі у виборах. Командна робота передбачає спрямування користувачів чат-ботів, які працюють на GPT, на надійні веб-сайти з інформацією про голосування, такі як CanIVote.org.

Суперники наслідують їхній приклад у гонці ШІ

Оголошення OpenAI створило прецедент у галузі штучного інтелекту з конкурентами Google LLC і Meta Platforms Inc. також впроваджують заходи для боротьби з дезінформацією, яка поширюється через їхні технології. Ці спільні зусилля лідерів галузі вказують на зростання обізнаності та відповідальності щодо потенційного впливу ШІ на демократичні процеси.

Але чи достатньо цього? Чарльз Кінг з Pund-IT Inc. піднімає критичну думку, сумніваючись у тому, чи є ці заходи своєчасними чи реактивними. Він стверджує, що занепокоєння з приводу дезінформації, створеної штучним інтелектом, існувало роками, і нещодавнє оголошення OpenAI можна вважати занадто малим і занадто пізнім. Ця перспектива провокує глибші роздуми про роль і відповідальність розробників ШІ в політичному ландшафті.

«Тож у найкращому випадку це оголошення свідчить про те, що OpenAI спав на комутаторі. Але в гіршому випадку це нагадує ритуал миття рук, на який може вказати OpenAI, коли генеративний штучний інтелект вражає віяло під час майбутніх глобальних виборів цього року».

Часова мітка:

Більше від МетаНовини