A ChatGPT biztonságával kapcsolatos növekvő aggodalmak kiemelik a közoktatás és az átláthatóság szükségességét a mesterséges intelligencia kockázataival kapcsolatban

A ChatGPT biztonságával kapcsolatos növekvő aggodalmak kiemelik a közoktatás és az átláthatóság szükségességét a mesterséges intelligencia kockázataival kapcsolatban

Forrás csomópont: 2556048

A mesterséges intelligencia (AI) térnyerése a biztonság és a magánélet védelmével kapcsolatos aggodalmak hullámát váltotta ki, különösen mivel ezek a technológiák egyre fejlettebbek és beépülnek mindennapi életünkbe. Az AI technológia egyik legkiemelkedőbb példája az ChatGPT, egy mesterséges intelligencia nyelvi modell, amelyet az OpenAI hozott létre, és amelyet a Microsoft támogat. Eddig több millió ember használta a ChatGPT-t a 2022 novemberi indulása óta.

Az elmúlt napokban a „biztonságos a ChatGPT?” az egekbe szökött, ahogy az emberek világszerte hangot adnak aggodalmuknak a technológiával kapcsolatos lehetséges kockázatokkal kapcsolatban.

A Google Trends adatai szerint a „biztonságos a ChatGPT?” kifejezésre végzett keresések március 614-a óta hatalmas, 16%-kal nőtt. Az adatokat fedezte fel Cryptomaniaks.com, egy vezető kriptográfiai oktatási platform, amelynek célja, hogy segítsen az újoncoknak és a kriptovaluta-kezdőknek megérteni a blokklánc és a kriptovaluta világát.

A ChatGPT biztonságával kapcsolatos információk megnövekedése rávilágít arra, hogy nagyobb nyilvánosságot kell felvilágosítani és átláthatóbbá kell tenni az AI-rendszerekkel és azok lehetséges kockázatait. Mivel a mesterséges intelligencia technológia, például a ChatGPT folyamatosan fejlődik és beépül mindennapi életünkbe, alapvető fontosságú, hogy foglalkozzunk a felmerülő biztonsági aggályokkal, mivel a ChatGPT vagy bármely más mesterséges intelligencia chatbot használata potenciális veszélyekkel járhat.

A ChatGPT célja, hogy segítse a felhasználókat abban, hogy emberszerű válaszokat generáljanak kérdéseikre, és párbeszédet folytassanak. Tehát az adatvédelmi aggályok jelentik a ChatGPT használatával kapcsolatos egyik legjelentősebb kockázatot. Amikor a felhasználók interakcióba lépnek a ChatGPT-vel, véletlenül megoszthatnak személyes adatokat magukról, például nevüket, tartózkodási helyüket és egyéb érzékeny adatokat. Ezek az információk sebezhetőek lehetnek a hackeléssel vagy a kibertámadások egyéb formáival szemben.

Egy másik aggodalomra ad okot a félretájékoztatás lehetősége. A ChatGPT úgy van programozva, hogy válaszokat generáljon a felhasználóktól kapott bemenet alapján. Ha a bevitel helytelen vagy félrevezető, az AI pontatlan vagy félrevezető válaszokat generálhat. Ezen túlmenően az AI-modellek fenntarthatják az általuk kiképzett adatokban jelenlévő torzításokat és sztereotípiákat. Ha a ChatGPT betanításához használt adatok elfogult vagy előítéletes nyelvezetet tartalmaznak, az AI olyan válaszokat generálhat, amelyek fenntartják ezeket az elfogultságokat.

Más mesterséges intelligencia asszisztensekkel, például Sirivel vagy Alexával ellentétben a ChatGPT nem használja az internetet a válaszok keresésére. Ehelyett válaszokat generál azon minták és asszociációk alapján, amelyeket megtanult a rengeteg szövegből, amelyre betanították. Szóról szóra épít fel egy mondatot, és mély tanulási technikái alapján kiválasztja a legvalószínűbbet, pontosabban egy transzformátornak nevezett neurális hálózati architektúra alapján, hogy feldolgozza és generálja a nyelvet.

A ChatGPT hatalmas mennyiségű szöveges adatra van előképzett, beleértve a könyveket, webhelyeket és egyéb online tartalmakat. Amikor a felhasználó beír egy felszólítást vagy kérdést, a modell a nyelv megértését és a prompt szövegkörnyezetének ismeretét használja a válasz generálásához. És végül találgatások sorozatával választ ad, ami részben az oka annak, hogy rossz válaszokat adhat.

Ha a ChatGPT-t kiképezik az emberek kollektív írására szerte a világon, és továbbra is ezt teszi, miközben az emberek használják, akkor a valós világban is előforduló torzítások megjelenhetnek a modellben. Ugyanakkor ez az új és fejlett chatbot kiválóan alkalmas összetett fogalmak magyarázatára, így nagyon hasznos és hatékony tanulási eszköz, de fontos, hogy ne higgyünk el mindent, amit mond. A ChatGPT természetesen nem mindig helyes, legalábbis még nem.

Vegye figyelembe, hogy ezek a veszélyek nem csak a ChatGPT-re vonatkoznak, hanem más mesterséges intelligencia modellekre is vonatkoznak. E kockázatok mérséklése érdekében kulcsfontosságú, hogy a ChatGPT-t felelősségteljesen használják, és pontos és megfelelő információkat kapjon. Meg kell értenünk a korlátait is.

E kockázatok ellenére az olyan mesterséges intelligencia technológiában, mint a ChatGPT, óriási lehetőség rejlik a különféle iparágak, köztük a blokklánc forradalmasításában. Az AI használata a blokklánc technológiában egyre nagyobb teret hódít, különösen olyan területeken, mint a csalások felderítése, az ellátási lánc kezelése és az intelligens szerződések. Az új mesterséges intelligencia által vezérelt botok, mint pl ChainGPT, segíthet az új blokklánc-vállalkozásoknak felgyorsítani fejlesztési folyamatukat.

Alapvető fontosságú azonban az innováció és a biztonság közötti egyensúly megteremtése. A fejlesztőknek, a felhasználóknak és a szabályozóknak együtt kell dolgozniuk, hogy olyan irányelveket hozzanak létre, amelyek biztosítják az AI-technológia felelős fejlesztését és bevezetését.

A legutóbbi hírek szerint Olaszország az első nyugati ország, amely blokkolja a fejlett chatbot ChatGPT-t. Az olasz adatvédelmi hatóság adatvédelmi aggályait fejezte ki a modellel kapcsolatban. A szabályozó bejelentette, hogy „azonnali hatállyal” betiltja és kivizsgálja az OpenAI-t.

A Microsoft dollármilliárdokat költött rá, és a múlt hónapban hozzáadta az AI chat eszközt a Binghez. Azt is közölte, hogy a technológia egy verzióját tervezi beágyazni Office-alkalmazásaiba, beleértve a Word-t, az Excel-t, a PowerPoint-ot és az Outlook-ot.

Ugyanakkor több mint 1,000 mesterséges intelligencia-szakértő, kutató és támogató csatlakozott ahhoz a felhíváshoz, hogy azonnali szünetet tartsanak legalább hat hónapra az AI-k létrehozásában, így a mesterséges intelligencia képességei és veszélyei olyan rendszerek, mint a GPT-4 megfelelően tanulmányozható.

Az igényt nyílt levélben terjesztették elő, amelyet a nagy mesterségesintelligencia-szereplők írtak alá, többek között: Elon Musk, aki társalapítója az OpenAI-nak, a ChatGPT-ért és a GPT-4-ért felelős kutatólaboratóriumnak; Emad Mostaque, aki megalapította a londoni székhelyű Stability AI-t; és Steve Wozniak, az Apple társalapítója.

A nyílt levél aggodalmát fejezte ki amiatt, hogy képesek-e irányítani azt, amit nem lehet teljesen megérteni:

„Az elmúlt hónapokban a mesterséges intelligencia-laboratóriumok egy kontroll nélküli versenyfutásba keveredtek, hogy egyre erősebb digitális elméket fejlesszenek és telepítsenek, amelyeket senki – még az alkotóik sem – nem érthet meg, nem tud előre jelezni vagy megbízhatóan irányítani. Hatékony AI-rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, és kockázataik kezelhetők lesznek.”

A mesterséges intelligencia létrehozásának azonnali szüneteltetésére vonatkozó felszólítás azt mutatja, hogy tanulmányozni kell az olyan rendszerek képességeit és veszélyeit, mint a ChatGPT és a GPT-4. Mivel a mesterséges intelligencia technológia folyamatosan fejlődik és beépül mindennapi életünkbe, kulcsfontosságú a biztonsági aggályok kezelése, valamint a mesterséges intelligencia felelős fejlesztésének és telepítésének biztosítása.

Növekvő aggodalmak a ChatGPT biztonságával kapcsolatban Hangsúlyozza ki a közoktatás és az átláthatóság szükségességét a mesterséges intelligencia kockázataival kapcsolatban forrás https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -veszélyben/

Időbélyeg:

Még több Blockchain tanácsadók