Month: December 2024

Wprowadzenie

Z zamiarem napisania osobnej publikacji o profilowaniu w UML noszę się od kilku lat. Mamy koniec grudnia, czyli więcej czasu dla siebie, więc nadszedł ten moment.

Notacja UML to prosty graficzny system notacyjny, co niestety powoduje, że modelowanie wielu ludziom wydaje się proste bo “to tylko prostokąciki i strzałki, każdy tak może i potrafi”. Niestety to jest jak pisanie: mamy nieco ponad 20 znaków alfabetu łacińskiego, język i gramatykę, a jednak napisanie czegoś wartościowego nadal jest jednak nie małym wyzwaniem. Nie zmienia to jednak faktu, że przeczytanie cudzego tekstu jest proste, o ile tylko nie jesteśmy analfabetą.

UML to język jak każdy inny. Od języka naturalnego różni go jego formalizm, co w konsekwencji daje obligatoryjną jednoznaczność, co jest podstawowym celem każdej formalizacji. Słownik Języka Polskiego PWN:

sformalizować: nadać czemuś charakter ścisły i wyrazić to za pomocą symboli matematycznych lub innego specjalnego języka
formalizacja: procedura prowadząca do przedstawienia danej teorii lub systemu w postaci sformalizowanej

Tak więc UML to ten “inny specjalny język” pozwalający formalizować modele systemów określonego typu. Opisałem to dokładnie w jednej z recenzowanych publikacji [zotpressInText item=”{5085975:TBT7B5D2}”]. Tu skupie się na samym Profilu w UML: czym jest oraz kiedy i jak go używać.

Profil w UML

W artykule Diagramy w notacji UML (2023) pisałem:

Klasa to podstawowy element modelowania w UML. Służy do modelowania struktur pojęciowych (namespace) lub struktur opisujacych architektury systemów na różnych poziomach abstrakcji. Klasa to nazwany element modelu, klasyfikator to definicja obiektów danej klasy (tak zwana definicja realna) czyli cechy obiektów tej klasy: atrybuty i operacje (rozdz. 9).

W artykule (2023) Model UML i stereotypy jako ikony napisałem:

W UML opracowano prosty system: wszystko jest prostokątem (klasą), znaczenie kształtu jest określane słownie, a słowo to jest wpisywane w prostokąt nad opisem w podwójnym łamanym nawiasie: ‘stereotyp’. Dla ułatwienia posługiwania się notacją, wybrane kluczowe nazwy (stereotypy) dostały swoje ikony np. aktor, przypadek użycia, komponent, interfejs itp..

Tu pada słowo stereotyp. Czym jest stereotyp? Czym jest profil?

Profil jest formą rozbudowy metamodelu, który może być użyty do rozszerzenia notacji UML. Podstawowe narzędzie rozszerzania to Stereotyp. [zotpressInText item=”{5085975:DCYU6XZJ}”]

Czytamy dalej tamże:

12.3.3.4 Stereotypy
Stereotyp definiuje rozszerzenie dla jednej lub więcej metaklas i umożliwia jej użycie jako określonej dodatkowej terminologii.

Formalnie profil w UML to osobny model/diagram. Jest to model pojęciowy: ontologia i taksonomia.

Profil w specyfikacji UML [zotpressInText item=”{5085975:DCYU6XZJ}”]:

12.3 Profil
12.3.1 Podsumowanie
Podrozdział Profile opisuje możliwości, które pozwalają na rozszerzenie metaklas w celu dostosowania ich do różnych celów. Obejmuje to możliwość dostosowania metamodelu UML do różnych platform (takich jak J2EE lub .NET) lub domen (takich jak architektura czasu rzeczywistego lub architektura zorientowana na usługi). Podrozdział Profiles jest zgodny z OMG Meta Object Facility (MOF).

Profil to metamodel dla modelu i budujemy go jako dodatkową warstwę w warstwie M2. Poniżej podstawowe w MOF (Meta Object Facility) poziomy abstrakcji wg MOF:

OMG MOF: poziomy abstrakcji [zotpressInText item=”{5085975:7SY4A9KE}”]

Profil budujemy jako zestaw pojęć (diagram) połączonych związkami generalizacji i kompozycji. Generalizacja to związek mówiący, że coś jest typem czegoś np. pies jest typem ssaka. Kompozycja to związek mówiący, że coś jest cechą czegoś, np. ogon jest cechą psa bo “pies ma ogon”. Dlatego nie przypadkiem, nawet w języku polskim, stosujemy zamiennie słowo cecha i własność: własnością psa jest to, że ma ogon (= cechą psa jest to, że ma ogon).

Poniżej profil standardowy UML:

Jak widać w UML wszystko jest klasą. Bazowe pojęcia meta-metamodelu (oznaczone UML::… ), nie są z sobą połączone, to pojęcia stanowiące fundament notacji.

Na diagramach profilu można umieścić pojęcia bazowe abstrakcyjne. Łączymy jest ze stereotypami profilu standardowego linią skierowaną wg. wzoru:

Łącznik bazowy na diagramie profilu, rzadko stosowany poza treścią specyfikacji UML: generalizację generalizacji (meta-generalizacja).

Poniżej wybrane pojęcia Profilu w firmie tabelarycznej (fragment):

Jak to czytać? Popatrzmy na poniższy fragment:

UML Artifact

UML::Deployments::Artifact to abstrakcyjne pojęcie “Artifact” (artefakt, w języku angielskim i polskim, oznacza coś, co jest dziełem ludzkiego umysłu i ludzkiej pracy w odróżnieniu od wytworów natury). Rodzajem artefaktu jest File (plik). Wyróżniamy określone typy plików: Document, Executable, itd. Ważna uwaga: robiąc taką taksonomię, używamy na diagramach tylko liści tej struktury (przypominam, że nie jest to dziedziczenie i nie używamy tu abstrakcji).

Document jest definiowany jako:

Dokument, rodzaj Artefaktu, Plik czytelny dla człowieka. Podklasa klasy “File”. Generalizację czytamy tu: Dokument “jest rodzajem” Pliku (podobnie jak np. kod źródłowy: Source).

Specyfikacja notacji UML to w zasadzie bazowy (Root) profil plus kontekstowe modele (pozostałe rozdziały) zdefiniowane jako profile. Dlatego mówimy, że notacja UML jest samodokumentująca się (UML został udokumentowany w notacji UML). Poniżej rozdział 7.2.2. zawierający taki profil.

Diagram profilu, wyrażający także składnię, składa się z definiowanych elementów (prostokąt) oraz związków między nimi. Profil to jedyny diagram na którym jednocześnie stosujemy związki pojęciowe (generalizacja) i strukturalne (skierowane asocjacje, głównie kompozycja). Powyższy diagram czytamy:

  • semantyka:
    • diagramy UML budowane są bazowych elementów tych diagramów,
    • specyficznym typem elementu diagramu są związki miedzy elementami bazowymi oraz komentarze,
    • specyficznym typem związku jest związek skierowany,
  • syntaktyka:
    • bazowe elementy mogą być ze sobą łączone z pomocą związków, związek skierowany też jest takim związkiem,
    • cechy (własności) elementów bazowych to także elementy bazowe,
    • komentarz jest cechą (własnością) elementu bazowego, z którym został skojarzony.

Pozostałe detale tego diagramu pominąłem, gdyż nie są tu istotne i są stosowane opcjonalnie. W logice i lingwistyce pojęcia mogą być definiowane opisowo (definicja sprawozdawcza) lub poprzez cechy (definicja realna) [zotpressInText item=”{5085975:6LD24N2L}”]. UML to notacja, w której obiekty są definiowane z pomocą klas mających własności (cechy: atrybuty i zachowania), są to definicje realne (poprzez cechy).

Elementy składni

Warto pamiętać, że syntaktyka (składnia) notacji w OMG, UML także, jest budowana na wymaganiach (regułach) formułowanych jako:

5 Notational Conventions
5.1 Key words for Requirement Statements
The words SHALL, SHALL NOT, SHOULD, SHOULD NOT, MAY, NEED NOT, CAN and CANNOT in this
specification shall be interpreted according to Annex H of ISO/IEC Directives, Part 2, Rules for the structure and
drafting of International Standards, Sixth Edition 2011

Słowa zapisane kapitalikami to odpowiednio: POWINIEN, NIE POWINIEN, ZALECA SIĘ, NIE ZALECA SIĘ, MOŻE, NIE WYMAGA SIĘ, JEST MOŻLIWE i NIE JEST MOŻLIWE. Te słowa w języku angielskim są dość nieprecyzyjne dlatego powstały formalne zalecenia standaryzujące ograniczające słowa kluczowe wymagań (reguł) do:

  1. MUST This word, or the terms “REQUIRED” or “SHALL”, mean that the definition is an absolute requirement of the specification.
  2. MUST NOT This phrase, or the phrase “SHALL NOT”, mean that the definition is an absolute prohibition of the specification.
  3. SHOULD This word, or the adjective “RECOMMENDED”, mean that there may exist valid reasons in particular circumstances to ignore a particular item, but the full implications must be understood and carefully weighed before choosing a different course.
  4. SHOULD NOT This phrase, or the phrase “NOT RECOMMENDED” mean that there may exist valid reasons in particular circumstances when the particular behavior is acceptable or even useful, but the full implications should be understood and the case carefully weighed before implementing any behavior described with this label.

(patrz wpis: rfc2119 – Słowa kluczowe reguł)

Nie tylko UML

Powyższy profil standardowy można rozszerzać na użytek np. określonej dziedziny modelowanych systemów. Robimy to (dokumentujemy te rozszerzenia) z pomocą Diagramu Profilu. Z profilami w sposób “niejawny” spotykamy się w każdej notacji OMG.

Fragment dodatku specyfikacji notaci BPMN:

Annex C, Glossary (informative)

Co można zobrazować jako:

Pojęcie Activity to pojęcie abstrakcyjne w BPMN nie mające graficzne reprezentacji. Graficzną reprezentację mają jedynie Podproces (Sub-process) i Zasadnie (Task):

Aktywność to albo Pod-proces albo Zadanie. Na modelach BPMN nie używamy jednak symbolu stereotypu. Pojęcie “Proces” w BPMN nie ma osobnej graficznej reprezentacji. Procesem jest każdy poprawny diagram BPMN.

Przykład 1

Załóżmy, że modelujemy nowe oprogramowanie: Aplikacja Modelowana. Ma ona mieć jednego Użytkownika, będzie współpracowała z dwoma innymi aplikacjami:

Diagram Przypadków Użycia notacji UML.

Aktor Użytkownik i aktor Aplikacja integrowana, to identyczne symbole na diagramie, co jest po prostu niejednoznaczne. Jak tę niejednoznaczność usunąć? Tworzymy diagram profilu:

Profil jako rozszerzenie pojęcia Actor w UML.

Wiele narzędzi CASE zastępuje nadrzędną “generalizację generalizacji” podawaniem nazwy klasy bazowej UML w nawiasie. Powyższy diagram, po zastosowaniu stereotypów zdefiniowanych w profilu, będzie wyglądał tak:

Diagram Przypadków Użycia notacji UML wzbogacony o stereotypy rodzajów aktorów.

Więcej o tym przykładzie w artykule Dylematy z aktorami. Ważna uwaga: nowe pojęcia powinny być spójne, kompletne i niesprzeczne w ramach modelowanej dziedziny.

Przykład 2

Profile dla architektury HLD:

Profil dla architektury aplikacji

Model architektury zbudowany z użyciem tego profilu:

Architektura HLD aplikaci

Podsumowanie

Stereotypów praktycznie nie używamy w modelach pojęciowych, które są z zasady formą profilu. Stereotypów używamy na modelach PIM określonych systemów dziedzinowych, oraz do definiowania tak zwanych frameworków dla modeli PSM (np. profil dla Java czy profil dla .NET):

The Profiles clause describes capabilities that allow metaclasses to be extended to adapt them for different purposes.
This includes the ability to tailor the UML metamodel for different platforms (such as J2EE or .NET) or domains (such
as real-time or Service Oriented Architecture). The Profiles clause is consistent with the OMG Meta Object Facility
(MOF).

Dlatego nie należy tworzyć “nierealnych” bytów takich jak np. krytykowany powszechnie “aktor czas” (patrz artykuł: Aktor czas).

Źródła

[zotpressInTextBib style=”apa” sort=”ASC”]

Wprowadzenie

Ukazał się ciekawy tekst: Odpowiedzialność cywilna za szkody spowodowane funkcjonowaniem sztucznej inteligencji – uwagi de lege lata i de lege ferenda – Wydanie – 11/2024 | Palestra [zotpressInText item=”{5085975:KYHQFTLR}”]. Szczególnie zainteresował mnie zwrot: “szkody spowodowane funkcjonowaniem sztucznej inteligencji”.

Czym jest “sztuczna inteligencja” (AI, ag. Artificial Intelligence)? Jest to “zdolność komputera cyfrowego lub robota sterowanego komputerowo do wykonywania zadań powszechnie kojarzonych z istotami inteligentnymi.”. Prof. Kisielewicz pisze wprost (polecam cały artykuł):

ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną „sztuczną inteligencją”, o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako „autonomiczny program myślący na podobieństwo człowieka” – pisze prof. Andrzej KISIELEWICZ [zotpressInText item=”{5085975:YK6QY5B6}”]

W tym artykule nie będę się zajmował dyskusją czym jest inteligencja i sztuczna inteligencja, przyjmiemy powyższe definicje i poniższe wyjaśnienie:

Wszystkie, z wyjątkiem najprostszych ludzkich zachowań, są przypisywane inteligencji, podczas gdy nawet najbardziej skomplikowane zachowania owadów zwykle nie są traktowane jako oznaka inteligencji.[…] Psychologowie generalnie charakteryzują ludzką inteligencję nie przez jedną cechę, ale przez połączenie wielu różnych zdolności. Badania nad sztuczną inteligencją koncentrowały się głównie na następujących składnikach inteligencji: uczeniu się, rozumowaniu, rozwiązywaniu problemów, percepcji i posługiwaniu się językiem. (źr.: https://www.britannica.com/technology/artificial-intelligence)

Generalnie jest to komputer, czyli procesor, pamięć i program [zotpressInText item=”{5085975:ZCXJ2S7U}”]. W tym przypadku określony program, którego funkcją jest “wykonywanie zadań powszechnie kojarzonych z istotami inteligentnymi” (patrz wyżej).

jeżeli
komputer = procesor + program + pamięć (dane)
oraz
AI = procesor + program + pamięć (dane)
to
AI = komputer

Przykład opisu tego faktu:

[zotpressInText item=”{5085975:KPHMWRR8}”]

Powyższe można w uproszczeniu przedstawić tak:

(źr.: opracowanie własne autora)

Dwa ważne pojęcia:

  1. Podmiot prawa (podmiot prawny) – oznacza każdą osobę fizyczną lub osobę prawną utworzoną – i uznawaną za taką – na mocy prawa krajowego, unijnego lub międzynarodowego, która ma osobowość prawną oraz zdolność do czynności prawnych.
  2. Przedmiot prawa – rzecz, postępowanie, umowa itp., na które rozciągają się pewne normy prawne (tu będzie to komputer, materiały źródłowe, wynik pracy komputera)

Kluczowe jest tu także to, że:

  • komputer nie myśli i nie jest podmiotem prawa
  • komputer jest przedmiotem prawa, podobnie jak Materiał źródłowy czy Odpowiedź.

(źr,: https://prawo.uni.wroc.pl/sites/default/files/students-resources/Notatki%20-%20prawo%20cywilne.doc)

Polemika

Autorzy wychodzą z nieprawdziwego założenia, że

W świecie nauki, techniki i biznesu nie istnieje jedna powszechnie uznana definicja sztucznej inteligencji.

Ogólnie przyjęte i uznane definicje przytoczyłem we Wprowadzeniu, ewentualne inne to raczej spekulacje autorów wielu tekstów na podobne tematy, szczególnie fascynatów technologii i firm reklamujących swoje produkty w obszarze AI. Autorzy sami także przyznają, że:

Szczęśliwie, stosowane opisy tego pojęcia są dość spójne, a różnice między nimi nie są istotne z perspektywy przeciętnego uczestnika obrotu.

Autorzy piszą:

istotne wydaje się określenie kluczowych cech AI, aby móc dalej prowadzić rozważania dotyczące odpowiedzialności cywilnej w jej kontekście.

Generalnie AI to komputer i jego specyficzne oprogramowanie, ale jednak komputer czyli przedmiot prawa nie podmiot prawa. Bardzo niebezpieczne i zarazem nieprawdziwe jest także założenie autorów, że:

immanentną i najważniejszą cechą sztucznej inteligencji z perspektywy rozważań dotyczących odpowiedzialności cywilnej jest autonomiczność.

Otóż żaden komputer nie jest autonomiczny, z prostego powodu: powstał rękami człowieka, który zawsze może go po prostu “wyłączyć” (nie będziemy tu zajmowali się tym co pokazują filmy SF).

© Chappatte in Le Canard Enchaîné, France

Jeżeli można mówić o autonomicznym komputerze to tylko wtedy, gdy człowiek traci zdolność kierowania nim, co ma miejsce np. w samosterującej rakiecie od momentu jej odpalenia, co nie zmienia faktu, że zaprogramował i wystrzelił ją określony człowiek (“winny”). Nawet jeżeli komputer (a konkretnie algorytm) ma wbudowane elementy losowego działania (np. algorytmy ewolucyjne) w jego zachowaniu, i faktycznie wynik jego działania nie jest w pełni przewidywalny, nie zmienia to faktu, że ta cecha (losowość) jest świadomą decyzją projektanta. Autorzy piszą, że:

ta cecha stanowi kluczową „operacyjną” różnicę pomiędzy narzędziami IT wykorzystującymi rozwiązania oparte na sztucznej inteligencji, a klasycznymi systemami IT.

Nie jest to prawdą: identycznie zachowują sie od wielu lat np. gry komputerowe i symulatory, jednak autorzy tu stawiają tezę tezę, że

sztuczna inteligencja wymaga odrębnego podejścia w kontekście odpowiedzialności cywilnej. Im bardziej sztuczna inteligencja jest autonomiczna, tym mocniej wymyka się tradycyjnemu rozumieniu kontroli nad środkami technicznymi.

uznając ją za aksjomat w swojej pracy.

Dalej pada kolejne ciekawe porównanie:

Tytułem przykładu wskazać można art. 431 k.c., który reguluje odpowiedzialność za szkody spowodowane przez zwierzęta,

jednak jak wiemy, zwierzęta z zasady nie są “winne” bo nie są podmiotem prawa. Jednak dalej piszą:

Trudno sobie bowiem wyobrazić, aby sztuczna inteligencja, jako taka, ponosiła „winę” za jakiekolwiek swoje „zachowania” i ich skutki. Z całą pewnością jednak może ona być przyczyną zaistnienia zdarzeń, które mogą prowadzić do naruszenia dóbr (fizycznych lub niematerialnych) innych podmiotów, co z kolei sprawi, że u tych podmiotów powstaną szkody. Sztuczna inteligencja może być zatem przyczyną powstania deliktu.

Innymi słowy nie ma różnicy między szkodą wyrządzoną przez psa i przez komputer, w obu przypadkach odpowiada powiązany z nimi człowiek (ogólnie podmiot prawa), co autorzy przyznają:

Należy przy tym zauważyć, że sztuczna inteligencja, jako taka, nie jest podmiotem prawa, ale jego przedmiotem (jednak nie jest rzeczą). Co do zasady za przedmioty prawa odpowiada ich właściciel (lub podmiot uprawniony), jednak w przypadku sztucznej inteligencji kwestia niekiedy nie wydaje się oczywista.

Powyższe zawiera jednak mały “haczyk”, autorzy piszą, że:

[AI] nie jest rzeczą

co nie jest prawdą: komputer jest “rzeczą” bo AI = komputer, a komputer to “rzecz”. Autorzy piszą:

Odpowiedzialność w obszarze sztucznej inteligencji jest w istocie zawsze – w większym lub mniejszym stopniu – związana przede wszystkim z odpowiedzialnością za działanie programu komputerowego.

Pozostaje ciekawostką co mieli na myśli pisząc “w większym lub mniejszym stopniu”.

Autorzy piszą:

Po drugie, sztuczna inteligencja może funkcjonować wyłącznie w sferze wirtualnej, jako element oprogramowania, albo w programie komputerowym powiązanym integralnie z rzeczą (jako element bezpieczeństwa albo program operujący tą rzeczą, jak np. robotem, dronem lub samochodem autonomicznym).

Nie jest to prawdą, AI to oprogramowanie czyli integralna część komputera. Dla komputera, który jest urządzeniem elektronicznym, oprogramowanie stanowi wyłącznie metodę skonfigurowania jego zachowania, jego złożoność niczego tu nie zmienia (ani samochód ani samolot nie są “inne” dlatego, że składają się z setek tysięcy elementów, a ich zachowanie dla wielu ludzi jest niezrozumiałe).

Kolejny groźny aksjomat autorów to:

sztuczna inteligencja samodzielnie podejmująca decyzję

co także nie jest prawdą, bo “decyzje podejmowane przez komputer” to wynik działania programu (który ktoś napisał), bez względu na jego złożoność, zaś komputer nadal jest “rzeczą” w rękach jego użytkownika: człowieka. Poniżej przykład “podejmowania decyzji” przez AI:

[zotpressInText item=”{5085975:SZ9ZJFB9}”]

W efekcie stwierdzenie:

Pewien problem pojawia się jednak w sytuacji, kiedy to sztuczna inteligencja „samodzielnie” – tj. bez bezpośredniego udziału i woli człowieka – wywoła jakieś zdarzenie faktyczne, którego skutkiem będzie szkoda danego podmiotu.

Jest nieprawdziwe. Autorzy piszą:

Podmiotów, którym mogłaby zostać potencjalnie przypisana odpowiedzialność, jest na pierwszy rzut oka tak dużo, że wyzwaniem może okazać się wskazanie tego właściwego (projektant algorytmów, producent, podmiot wdrażający lub trenujący model AI czy użytkownik końcowy), a regulacje prawne nie pokrywają (lub pokrywają niekompletnie) całego wachlarza zdarzeń mogących wywoływać u danego podmiotu szkodę w związku z działaniem sztucznej inteligencji.

Co także nie jest prawdą: zbudowanie łańcucha zdarzeń od faktu wyprodukowania komputera do faktu powstania szkody z pomocą tego komputera, nie jest trudne.

Autorzy na bazie przyjętych przez siebie aksjomatów, wywodzą:

W naszej ocenie przyjęcie zasady odpowiedzialności w kontekście AI wymaga podejścia funkcjonalnego i powinno być determinowane przede wszystkim stopniem autonomiczności danego narzędzia AI.

Jak wyżej wskazałem AI nie jest autonomiczne i można wskazać podmiot będący dysponentem komputera. Co jednak ciekawe, dalej piszą:

Praktyka i nauka prawna są dość zgodne, że dla AI o wysokim poziomie autonomiczności zasada winy często może być nieadekwatna (operator czy producent AI nie powinien móc uwolnić się od odpowiedzialności w wypadku, kiedy model sztucznej inteligencji zachował się inaczej, niż było przewidziane).

Pisza dalej:

Tymczasem, nie uciekając się do dyskusji de lege ferenda, które są tyleż interesujące, co niewystarczające z uwagi na teraźniejsze potrzeby obrotu, prawo daje pewne podstawy, które należy wykorzystywać w kontekście AI – instytucje odpowiedzialności za pojazd i za przedsiębiorstwo wprawiane w ruch za pomocą sił przyrody. Można przyjrzeć się także odpowiedzialności za szkody wyrządzone przez zwierzęta jako intrygującej (i kontrowersyjnej) opcji do wykorzystania wobec AI, do której można sięgać przez analogię. Ponadto trwają już także prace nad specjalnymi przepisami dot. odpowiedzialności za AI jednolitymi w całej Unii Europejskiej, które również zostaną tutaj omówione.

Autorzy próbują podważyć analogię AI do zwierząt co nie ma jednak żadnej podstawy. AI, podobnie jak zwierzęta, cechuje się pewną autonomicznością po “wypuszczeniu z ręki”, jednak niczego to nie zmienia: ani zwierzęta ani AI nie są podmiotem prawa, najczęściej można wskazać ich właściciela/opiekuna czyli odpowiedzialnego za nie i ich zachowania. Autorzy twierdzą, że:

Niezbyt oczywista, ale warta rozważenia, jest możliwość zastosowania do sztucznej inteligencji art. 431 k.c. – przepisu konstruującego odpowiedzialność za posiadane zwierzę.

jednak nie uzasadniają swojego stanowiska, a to, że AI nie jest żywym stworzeniem nie ma znaczenia: mamy “rzecz”, która “coś robi” i ta “rzecz” ma przyporządkowaną za te zachowania odpowiedzialną osobę (podmiot prawa).

Pozostała część publikacji jest oparta na przyjętych przez autorów aksjomatach, jednak podstawy ich przyjęcia, co wskazałem wyżej, nie mają podstaw logicznych, są raczej “założeniem przyjętym bez uzasadnienia” ale jako dogmat autorów.

W podsumowaniu autorzy sugerują, że “należy coś z tym zrobić”:

Prawny ekosystem odpowiedzialności cywilnej za AI jest mocno pofragmentowany. Pewne istniejące instytucje wydają się być gotowe na nowe wyzwania rzucane przez sztuczną inteligencję. Inne wymagają drobnych modyfikacji, a czasem po prostu otworzenia na AI. Stoimy także w obliczu obszarów, które mogą ulegać istotnym przeobrażeniom, zwłaszcza w wyniku działań legislacyjnych Unii Europejskiej.

Moim zdaniem, co pokazałem wyżej, najlepiej nie robić nic, tak jak się to dzieje od początku ery informatyki. To, że coś wymyka się pojmowaniu coraz większej liczbie ludzi (jest to naturalny efekt postępu techniki) nie znaczy, że “należy coś z tym robić w prawie”.

Polemika ta została wysłana do wydawcy cytowanego tekstu.

Pytania czytelników

(poniższe komentarze to eksperckie uwagi autora a nie porady prawne)

  1. Fajnie napisane. Zgadzam się. Natomiast mieliśmy ostatnio dyskusje jak to jest z prawem autorskim. Jeżeli sztuczną inteligencją (czy tam jej algorytm po prostu) stworzy obraz. To kto ma prawa do tego obrazka. Użytkownik? Autor modelu? Używając takiego Photoshopa jest to w miarę jasne. A jak to jest np z GPT ? Jakby nie patrzeć składa go z innych znanych mu obrazów
    • Co do zasady mamy tu parę “człowiek + narzędzie”, przedmiotem prawa autorskiego jest utwór a podmiotem jego autor zaś to jakiego używa narzędzia nie ma znaczenia, boto on (jak za psa) odpowiada za skutki, tu treść utworu. W przypadku prawa autorskiego to pokrzywdzony musi wykazać, że ktoś łamie jego prawa (plagiat). AI – poza stopniem komplikacji” – nie różni się od np. Photoshopa. W tym ostatnim biblioteka używanej gotowej grafiki (zdjęcia, grafiki, itp.) wymaga licencji. W AI są to generowane losowo obrazy z wzorców, a te zostaną w sądach potraktowane raczej jako “źródło inspiracji”. W efekcie człowiek używający narzędzi AI jest autorem uzyskanego efektu, zaś to czy jest to plagiat czy nie (naruszono czyjeś prawa) musi zostać udowodnione każdorazowo.
  2. Może by warto dodać też w tekście, bo to do końca chyba czytelne dla czytelnika może nie być ze zapis licencji może odpowiedzialność przenosić na użytkownika w jakimś tam stopniu. Na bank mało kto czyta regulamin takiego GPT. Nie jest to clu rozważań ale jakimś tam zwróceniem uwagi.
    • Jak wyżej, licencja jest potrzebna na AI jak na każde inne oprogramowanie, co do reszty tylko wtedy, gdy wprost używamy cudzego utworu i nie jest to “cytowanie”. PhotoShop to oprogramowanie a biblioteki np. zdjęć to dodatkowe licencjonowane produkty. Jeżeli uznać, że AI “istotnie przetwarza” cudze obrazy czy teksty zostanie to zakwalifikowane jako inspiracja, a tego zabronić nie można.

Źródła

[zotpressInTextBib style=”apa” sort=”ASC”]