Antropomorfizm sztucznej inteligencji w środowiskach edukacyjnych: ryzyko humanizacji maszyny – EdSurge News

Antropomorfizm sztucznej inteligencji w środowiskach edukacyjnych: ryzyko humanizacji maszyny – EdSurge News

Węzeł źródłowy: 3064128

Od czasu pojawienia się generatywnych narzędzi sztucznej inteligencji w środowiskach edukacyjnych nauczyciele szukają wskazówek dotyczących bezpiecznego i etycznego stosowania sztucznej inteligencji w edukacji. Niedawne Rozporządzenie wykonawcze w sprawie bezpiecznego i godnego zaufania rozwoju oraz wykorzystania sztucznej inteligencjiopublikowany 30 października 2023 r. zawiera bardzo potrzebne wytyczne zapewniające odpowiedzialny i bezpieczny rozwój, wdrażanie i użytkowanie systemów i narzędzi sztucznej inteligencji (AI).

W środowiskach edukacyjnych w wieku przedszkolnym nauczyciele i dyrektorzy szkół w dalszym ciągu pracują nad jasnym i konsekwentnym identyfikowaniem możliwości i wyzwań związanych z systemami i narzędziami sztucznej inteligencji, aby uczniowie i nauczyciele mogli korzystać z zaleceń i działań określonych w rozporządzeniu wykonawczym (EO). EO kieruje się ośmioma zasadami i priorytetami (A–H w EO), z których dwa skupiamy się tutaj:

  1. Polityka dotycząca sztucznej inteligencji musi być spójna z postępem w zakresie równości i praw obywatelskich.
  2. Należy chronić interesy Amerykanów, którzy w codziennym życiu coraz częściej korzystają ze sztucznej inteligencji i produktów obsługujących sztuczną inteligencję, wchodzą z nią w interakcję lub kupują ją.

Priorytety są szczególnie ważne w środowisku edukacyjnym w wieku przedszkolnym, w którym nasi uczniowie często po raz pierwszy zapoznają się z systemami i narzędziami sztucznej inteligencji, uczą się z nich korzystać i potencjalnie stają się twórcami sztucznej inteligencji. Jak wiemy, edukacja jest prawem obywatelskim, a zajmowanie się tym kapitał cyfrowy luka wymaga potężnych możliwości uczenia się napędzanych technologią, w tym szczegółowego zrozumienia, jak i kiedy używać produktów obsługujących sztuczną inteligencję.

Niebezpieczeństwo utożsamiania sztucznej inteligencji z ludźmi

Zapewnienie ochrony naszych społeczności wymaga od nas uwzględnienia uprzedzeń nieodłącznie związanych z systemami sztucznej inteligencji, a na ten temat napisano już i udostępniono wiele informacji. W EO podkreślono kwestię, o której powinni pamiętać liderzy edukacji: AI generuje treści w oparciu o to, co już istnieje. Systemy AI wykorzystują dane wejściowe pochodzące od maszyn i ludzi do prognozowania i generowania treści. Dane wykorzystywane przez systemy sztucznej inteligencji faworyzują dane historyczne i zawierają błędy nieodłącznie związane z tymi danymi. Ponadto, Ostatnie badania pokazują, że użytkownicy-ludzie mogą nieświadomie wchłaniać zautomatyzowane uprzedzenia z systemów i narzędzi sztucznej inteligencji oraz że uprzedzenia te mogą utrzymywać się nawet po zaprzestaniu korzystania z programu sztucznej inteligencji. Oznacza to, że nawet ograniczone interakcje z narzędziami AI mogą mieć trwałe skutki. Istotne jest, aby liderzy edukacji traktowali priorytetowo umiejętność korzystania z sztucznej inteligencji wśród nauczycieli, uczniów i ich społeczności, a także uwzględniali uprzedzenia, prywatność danych i ograniczenia wiekowe, które już uwzględniają przy wdrażaniu narzędzi sztucznej inteligencji.

Jednakże nasze obawy wykraczają poza stronniczość; chcemy przestrzec przed antropomorfizacją sztucznej inteligencji. Sztuczna inteligencja nie jest człowiekiem i nie powinniśmy używać terminów związanych z człowiekiem w odniesieniu do tych systemów i narzędzi, ponieważ może to prowadzić do błędnych wyobrażeń, które wyrządzają krzywdę nie tylko naszym uczniom, ale także naszym społecznościom. Należy pamiętać, że systemy AI to tylko komputery i popełniają błędy. W związku z tym uważamy, że termin halucynacja należy zastąpić błąd. Ponadto definicja generatywnej sztucznej inteligencji (gen AI) w EO wzywa wyniki tych modeli jako treść syntetyczną. Jest to ważne, ponieważ pomaga utwierdzić pogląd, że sztuczna inteligencja to narzędzie, które wykorzystuje istniejące dane do prognozowania lub generowania treści. Innymi słowy, tworzy najlepsze przybliżenie lub przypuszczenie w oparciu o to, co zostało już stworzone przez ludzi.

AI nie tworzy nowych pomysłów. Zrozumienie i zaakceptowanie tego pomaga uchronić się przed antropomorfizacją systemów i narzędzi sztucznej inteligencji, co może być powszechne w placówkach edukacyjnych. Ważne jest, aby uczniowie i nauczyciele pamiętali, że sztuczna inteligencja jest narzędziem i należy ją określać jako „to”, a nie „ona”, „on” czy „oni”. Nauczyciele muszą pamiętać, że sztuczna inteligencja może czasami wykazywać cechy ludzkie, takie jak posiadanie głosu lub umiejętność odpowiadania na pytania, ale jest to po prostu narzędzie stworzone przez ludzi i wykorzystywane w celu uzupełnienia ich wyjątkowo ludzkich zdolności.

Sztuczna inteligencja uzupełnia wyjątkowe ludzkie zdolności

Sztuczna inteligencja jest jednak wyrafinowanym narzędziem i może uzupełniać ludzkie możliwości, jeśli zostanie odpowiednio wykorzystana. Pomysł wykorzystania systemów technologicznych w celu uzupełnienia lub wzmocnienia ludzkich zdolności nie jest nowy i jest określany jako wzmocnienie inteligencji (IA). IA skupia się na znaczeniu informowania ludzi o bieżących wydarzeniach w trakcie opracowywania i stosowania tych narzędzi w środowiskach edukacyjnych. Na przykład wielu nauczycieli jest podekscytowanych możliwością, że narzędzia AI mogą umożliwić i rozszerzyć zindywidualizowane i zróżnicowane nauczanie wszystkich uczniów. Dobrze zaprojektowane narzędzie AI może zwiększać zdolność nauczyciela do przekazywania uczniom odpowiednich informacji zwrotnych w odpowiednim czasie, co może prowadzić do wzmocnienia znaczących więzi między nauczycielem a uczniami. Koncentrując umiejętności nauczycieli na trosce o swoich uczniów jako ludzi, możemy promować równość i prawa obywatelskie.

Wierzymy, że technologie mogą być najcenniejsze w nauczaniu i uczeniu się, gdy uzupełniają ludzkie umiejętności, stawiając w centrum profesjonalną ocenę nauczycieli i głosy uczniów. Chociaż systemy i narzędzia sztucznej inteligencji mogą wspierać nauczanie i uczenie się, należy pamiętać, że zawsze wymagany będzie ludzki osąd. Ludzki osąd pozwoli nam zastosować się do wytycznych EO, w tym do zapewnienia przez szkoły spójności polityki w zakresie sztucznej inteligencji z postępem w zakresie równości i praw obywatelskich oraz ochrony interesów Amerykanów.

Uwaga: ten post został napisany przez ludzi i nie został wygenerowany przez sztuczną inteligencję.


Znak czasu:

Więcej z Eda Surge'a