Komentarz katalog wpisów zbitki WBI

Nowa definicja systemu SI, a wdrażający zastępuje użytkownika.

data wpisu: 2023.07.26 | data publikacji: 2023.06.19

[Aktuaalizacja treści wpisu]  Opublikowano w CRN 2023/6

O sztucznej inteligencji wiele już dobrego i złego napisano. Ale też opisuje się ją raczej zewnętrznie o tym co można z jej systemów wygenerować i jak to coś może nam, społeczeństwu, ludzkości pomóc lub zaszkodzić. Na tej podstawie, wobec mniej lub bardziej uzasadnionych obaw i nawet na żądania firm i osobistości tworzących systemy SI, podejmowane są działania w opracowanie regulacji mających ograniczać prawdopodobne negatywne skutki działania systemów SI. Takie działania są prowadzone równolegle w Kongresie i Białym Domu, w gremiach Komisji i Parlamentu Europejskiego, w rządzie Chin, Indii i w innych krajach. W każdym przypadku przyjmowane są nieco inne założenia wyjściowe – w USA zachowanie wiodącej pozycji amerykańskich korporacji, w UE ochrona danych osobowych obywateli przed ich wyprowadzeniem z Europy, a w Chinach uzyskanie nowych możliwości inwigilacji obywateli. W tych pracach prym wiodą politycy, prawnicy, socjologowie, ekonomiści oraz lobbiści korporacji zajmujących się SI – informatyków raczej nikt tam o zdanie nie pyta, a jednak sami informatycy powinni się czuć co najmniej zaniepokojeni.

W dniu 14 czerwca 2023 roku Europarlament przegłosował 771 poprawek do projektu rozporządzenia Parlamentu Europejskiego i rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji – ang. AI Act). Projekt ten powstał już w 2021 roku i jest dostępny jako Document 52021 PC0206 na stronie EUR-Lex w 25 językach. Był on dyskutowany w wielu gremiach, które zaproponowały aż te 771 poprawek, spisanych obecnie tylko w języku angielskim Dokument z samymi poprawkami jest trudno powszechnie dostępny, a jednolitego tekstu AI Act jeszcze nie ma.

W tych poprawkach, według mnie, dwie z nich są szczególnie istotne dla środowiska informatycznego, gdyż znacząco zmieniają postrzeganie systemów sztucznej inteligencji.

Pierwsza z nich wprowadza całkowicie nową definicję:

‘‘’artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environments.”

Już nie ma stwierdzenia, że jest to oprogramowanie wykorzystujące mechanizmy uczenia maszynowego, reprezentacji wiedzy, czy też narzędzi statystycznych. Nie ma nawet stwierdzenia, że jest to system teleinformatyczny, czy korzystający z komputera. Jest to system maszynowy, a maszyną może każdy autonomiczny układ, w jakim zachodzi przekształcanie zasilenia lub informacji. A na jego wyjściu (ang. output) mogą być sterowania lub wartości wyników wpływające na środowisko fizyczne lub wirtualne.Może to być nawet regulator temperatury klimatyzacji w budynku. Tym samym pojawia się ogromne pole do interpretacji kiedy możemy stwierdzić istnienie systemu SI w danej maszynie.

[Aktualizacja] Tutaj trzeba dodać uwagę, że podobnież nie jest to jeszcze ostateczna wersja tej definicji AI system, bo będzie ona teraz dyskutowana i modyfikowana łącznie również z modyfikacją definicji AI system przyjmowanej przez OECD (stamtąd zresztą pochodziła poprzednia wersja tej definicji), a obecna wersja tej definicji brzmi:

„An AI system is a machine-based system that is capable of influencing the environment by producing an output (predictions, recommendations or decisions) for a given set of objectives. It uses machine and/or human-based data and inputs to

Dla porównania wg US National Artificial Intelligence Act of 2020 mamy definicję (w ANEKSIE jest opis aktualnych decyzji White House w sprawie AI system):

The term ‘artificial intelligence’ means a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations or decisions influencing real or virtual environments.”

Czytając ją widzimy, że była źródłem tej nowej przyjętej w UE, ale bez istotnej frazy wskazującej na decyzyjność człowieka w definiowaniu celów mających być spełnionymi przez system SI!

Dodatkowym aspektem takiej nowej definicji systemu SI jest możliwość jego patentowania, gdyż w UE samego oprogramowania raczej nie można patentować, ale maszyn z wbudowanym oprogramowaniem już tak. A już wiadomo, że liczba patentów związanych z SI w 2021 wynosiła około 18 tysięcy i w 2022 wzrosła o 28%. Czy jeszcze w UE znajdą się firmy z nowymi patentami w tej materii?

* * *

Druga z nich dokonuje zamiany wszystkich ponad 100 wystąpień terminu „user” terminem „deployer”, opisanym dotychczasową definicją (proszę pamietać o innej definicji AI system);:

„‘deployer’ (poprzednio ‘user’) means any natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal nonprofessional activity”.

Termin „deployer” występuje jako termin w „British English” i oznacza „a person or thing that deploy”, a „deploy” - w tłumaczeniu w sensie militarnym oznacza: „rozstawić, rozstawiać, rozmieścić, wdrożyć, rozlokować, wdrażać”. W słownikach angielsko-polskich nie ma tłumaczenia tego terminu. Słowniki „Google”, „Deepl” tłumaczą to jako „wdrażający” lub „podmiot wdrażający”. Nie jest to zbyt szczęśliwe w porównaniu do terminu „użytkownik” – być może powinien to być „wdrożeniowiec”.

Ale ta zmiana ma znaczący głębszy sens. W tym przypadku system SI pozostaje pod kontrolą podmiotu go wdrażającego, który wtedy odpowiada za prawidłowość i skutki jego działania, zdejmując tę odpowiedzialność z bezpośrednich użytkowników. Dla porządku należy dodać, że dalej istnieje „provider”, czyli dostawca. Ta odpowiedzialność wdrażającego przewija się przez cały tekst projektu rozporządzenia nakładając na niego różne obowiązki oraz ewentualnie kary. Nie wiadomo przy tym kto konkretnie, z osoby, jest tym rzeczywiście odpowiedzialnym i jakie ma środki na swoje działania. Instytucjonalnie będzie mógł wywierać większy wpływ na dostawcę, aby ten dopilnował tych wszystkich narzuconych zasad. A dostawca będzie starać się je przerzucić na producenta systemu SI, a ten na projektantów, programistów, analityków danych uczących – w skrócie na informatyków.

W rezultacie, dążeniem autorów tego rozporządzenia jest sformułowanie i narzucenie autorom takich systemów SI wielu istotnych obowiązków. Ale tych autorów przy tym raczej nie było i w tym jest problem. Teraz otwiera się okres na dyskusję nad zapisami tegoż rozporządzenia w poszczególnych krajach i dobrze by było aby uczestniczyło w nim środowisko oraz firmy informatyczne tym się zajmujące, starając się wyjaśnić wszystkie wątpliwości i zadbać o swoje interesy.

ANEKS

Ostatnio White House (Biały Dom w USA) w porozumieniu z siedmioma największymi firmami: Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI, określił osiem zobowiązań przez nich zaakceptowanych przy rozwoju i wdrażaniu systemów SI.

Zobowiązanie 1: Firmy zobowiązują się do wewnętrznych i zewnętrznych testów bezpieczeństwa ich sztucznej inteligencji. systemów przed ich wydaniem.

Nie zawiera wielu szczegółów na temat wymaganego rodzaju testów ani tego, kto je przeprowadzi. W oświadczeniu towarzyszącym zobowiązaniom Biały Dom powiedział jedynie, że testowanie  model AI/SI „zostanie częściowo przeprowadzone przez niezależnych ekspertów” i skupią się tylko na aspekcie na sztucznej inteligencji  zagrożeń „takich jak bezpieczeństwo biologiczne i cyberbezpieczeństwo, a także szerszych skutków społecznych”. Oczekiwane jest żeby rząd federalny sfinansował tego rodzaju testy, które mogą być kosztowne i wymagają inżynierów o znacznej wiedzy technicznej. Obecnie wiele testów bezpieczeństwa jest finansowanych i nadzorowanych przez firmy, co rodzi oczywiste pytania o konflikt interesów.

Zobowiązanie 2: Firmy zobowiązują się do wymiany informacji w całej branży oraz z rządami, społeczeństwem obywatelskim i środowiskiem akademickim na temat zarządzania sztuczną inteligencją. 

Firmy to  częsciow robiły, ale czasami jednak ukrywały informacje, powołując się na obawy dotyczące bezpieczeństwa. Kiedy OpenAI wydało swoją najnowszą wersję A.I. modelu, GPT-4, w tym roku to zerwał ze zwyczajami branżowymi i zdecydował się nie ujawniać, na jakiej ilości danych został przeszkolony ani jak duży był to model. Obawa jest, że może to przyśpieszyć prace konkurentów na nowymi modelami SI, szczególnie w sferze wojskowej. Celem Białego Domu jest mniej zmuszanie firm do ujawniania liczby parametrów, a bardziej zachęcanie ich do wymiany informacji między sobą na temat ryzyka, jakie stwarzają (lub nie) ich modele.

Zobowiązanie 3: Firmy zobowiązują się do inwestowania w zabezpieczenia cybernetyczne i zabezpieczenia przed zagrożeniami wewnętrznymi w celu ochrony zastrzeżonych i nieopublikowanych wag modeli. 

„Wagi modeli” to termin techniczny określający instrukcje matematyczne, które dają sztuczną inteligencję. Wagi są tym, co chciałbyś ukraść, gdybyś był agentem obcego rządu (lub konkurencyjnej korporacji), który chciał zbudować własną wersję ChatGPT lub inną sztuczną inteligencję. produkt. I to jest coś, co firmy SI  mają w żywotnym interesie trzymać wutajnione.

Zobowiązanie 4: Firmy zobowiązują się do ułatwiania stronom trzecim wykrywania i zgłaszania luk w zabezpieczeniach ich sztucznej inteligencji. systemy. 

Biały Dom wzywa firmy do ustanowienia „solidnego mechanizmu zgłaszania” tych luk, ale nie jest jasne, co to może oznaczać?

Zobowiązanie 5: Firmy zobowiązują się do opracowania solidnych mechanizmów technicznych, aby użytkownicy wiedzieli, kiedy treść jest sztuczna inteligencja. generowane, takie jak system znaków wodnych.

Do tej pory firmy SI mają trudności z opracowaniem narzędzi, które pozwalają ludziom stwierdzić, czy patrzą na sztuczną inteligencję, czy nie. Prawdziwym problemem jest to, że ludzie mogą przedstawiać pracę generowaną przez sztuczną inteligencję jako swoją własną.

Zobowiązanie 6: Firmy zobowiązują się do publicznego zgłaszania  możliwości, ograniczenia oraz obszary właściwego i niewłaściwego użytkowania w swoich systemach SI .

Trochę nieokreślone zobowiążanie, bo n aprzykłąd jak często firmy będą musiały zgłaszać możliwości i ograniczenia swoich systemów?

Zobowiązanie 7: Firmy zobowiązują się do nadania priorytetu badaniom dotyczącym zagrożeń społecznych, które mogą stwarzać systemy SI  w tym unikanie szkodliwych uprzedzeń i dyskryminacji oraz ochrona prywatności.

Zobowiązanie 8: Firmy zobowiązują się do opracowania i wdrożenia zaawansowanej sztucznej inteligencji. systemów, które pomogą sprostać największym wyzwaniom społeczeństwa.

Biały Dom wymienia „zapobieganie rakowi” i „łagodzenie zmian klimatycznych” jako dwa obszary, w których chciałby, aby sztuczna inteligencja firmom skoncentrowała swoje wysiłki . Jednak to, co czyni ten cel nieco skomplikowanym, to fakt, że w badanich SI, to, co na początku wygląda niepoważnie, często okazuje się mieć poważniejsze implikacje.

Ogólnie rzecz biorąc, umowa Białego Domu z siedmioma firmami SI wydaje się bardziej symboliczna niż merytoryczna. Nie ma mechanizmu egzekwowania, który zapewniałby, że firmy przestrzegają tych zobowiązań, a wiele z nich odzwierciedla środki ostrożności, które te firmy już stosują.A co  innymi firmami (ne tylko z USA), ktore masowo rozpoczęły prace nad aplikacjami SI?

W UE będzie to rozporządzenie, którego nakaz wypełniania będzie wymuszany karami.