Historia Sztucznej Inteligencji

Zjawisko, które nazywamy sztuczną inteligencją rozwija się bardzo szybko i znajduje zastosowanie już w prawie każdym aspekcie naszego życia. Istnieje nie tylko w transporcie, gdzie mamy możliwość używania autonomicznych samochodów, ale także w bankowości, poprzez usprawnianie procesów bankowych, w edukacji do indywidualizacji procesu nauczania, czy w medycynie, gdzie pomaga znacznie szybciej diagnozować choroby. Algorytmy wyposażone w sztuczną inteligencję stosowane są również w praktyce przez największe firmy technologiczne – Apple, Google, a większość ludzi na świecie korzysta już ze smartfonów wyposażonych w asystentów zdolnych do wykonywania poleceń głosowych. Znany portal społecznościowy Facebook posiada jeden z największych laboratoriów badających SI – Artificial Intelligence Research (FAIR) i wykorzystuje stworzoną tam technologię, aby obserwować działania swoich użytkowników i ułatwić korzystanie z tej sieci (np. używając automatycznego tagowania zdjęć). W 2017 roku w FAIR zbudowano roboty, które zaczęły porozumiewać się ze sobą w niezrozumiałym dla człowieka języku. Poziom skomplikowania języka był tak wysoki, że naukowcy nie byli w stanie go rozszyfrować i widząc to byli zmuszeni przerwać eksperyment. Technologie SI stosowane są również do rozpoznawania twarzy i używane są już masowo w Chinach. Pomagają one łapać przestępców, odszukiwać zaginione dzieci, ale także rozpoznawać emocje. Na szeroką skale stosuje się również chatboty – skorzystać można z ich funkcji na stronach internetowych linii lotnicznych, sklepów, ale także na infoliniach. AI zastosowanie znajduje również w wojskowości – budowane są już inteligentne czołgi, a trwają prace nad autonomiczną bronią. Nie wiemy, jaki naprawdę jest aktualny poziom technologiczny, ponieważ często armie nie ujawniają swoich wynalazków i rzeczy, nad którymi pracują.

Historia Sztucznej Inteligencji zaczęła się dużo wcześniej niż z wraz z wynalezieniem komputera. Jej początków można poszukiwać już za czasów Arystotelesa (348 p.n.e. – 322 p.n.e.), słynnego filozofa starożytnej Grecji, który stworzył logikę formalną, będącą dyscypliną naukową o sposobach jasnego ujmowania myśli, określania reguł poprawnego rozumowania i uzasadniania twierdzeń. Logika, matematyka i teoria obliczeń były podstawą informatyki teoretycznej. Osiągnięcia logiki wykorzystano współcześnie do zbudowania pierwszego komputera zdolnego do logicznego myślenia.

Rozwój sztucznej inteligencji przyspieszył w XX wieku dzięki Brytyjczykowi Alanowi Turingowi (1912 – 1954), nazywanego ojcem SI. Był matematykiem, prekursorem informatyki, a także bohaterem wojennym. Podczas II wojny światowej zasłynął stworzeniem maszyny – bomby Turinga – która pomogła rozszyfrować wiadomości III Rzeszy zapisywane przy pomocy stale ulepszanej maszyny szyfrującej – Enigma, której kod wykorzystywano do przekazywania informacji dla sił zbrojnych. Turing w 1939 roku stworzył maszynę, która potrafiła rozszyfrować Enigmę, tym samym dając początek teorii przetwarzania danych. Naukowiec przedstawił również schemat pierwszego komputera. Komputer działał na zasadzie obracającej się głowicy, która sczytywała dane z taśmy, będącej nośnikiem określonych danych i dzięki temu wykonywał proste operacje na zapisanych na taśmie wartościach. Alan Turing był wizjonerem i pionierem prac nad sztuczną inteligencją. Przewidział olbrzymi potencjał komputerów i był świadomy tego, że maszyny staną się podobne do ludzi. Stworzył test, obecnie nazywany tzw. testem Turinga, który miał za zadanie określić, czy maszyna przejawia inteligencję porównywalną do inteligencji ludzkiej. Warto wspomnieć, że dopiero niedawno, bo w 2014 roku, komputer przeszedł pozytywnie ten test oszukując ludzi i udając 13-letniego chłopca. Eksperyment został zorganizowany w Londynie przez Uniwersytet w Reading. Zadanie polegało na tym, że sędziowie będący ludźmi prowadzili rozmowę na czacie i mieli zdecydować, czy po drugiej stronie jest człowiek, czy maszyna. Program Eugene Goostman przekonał 33% sędziów, że jest człowiekiem.

Ważnym wydarzeniem w historii AI jest konferencja Dartmouth Summer Research Project, która odbyła się w Dartmouth w 1956 roku. Przebywało tam 11 osób: John McCourthy – nazywany ojcem SI, Marvin Minsky – współzałożyciel laboratorium AI w Massachusetts Institute of Technology, Nathaniel Rochester – konstruktor IBM 701 – pierwszego na dużą skalę elektronicznego komputera, Claude Schanon – twórca sieci komunikacyjnej, znanego z zaaplikowania logiki matematycznej do projektowania i konstruowania komputerów, Oliver Selfridge – zajmujący się zagadnieniami dotyczącymi sieci neuronowych, Herbert Simon – zdobywca Nobla w dziedzinie ekonomii, Allen Newell – założyciel AI LAB na Carnegie Mellon University. Na konferencji jeden z jej członków – John McCarthy – zaproponował nazwanie zjawiska konstruowania maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji – sztuczną inteligencją.

Rozwój SI jeszcze bardziej przyspieszył i w 1966 roku przedstawiono napisany przez profesora MIT, Josepha Weinezbauma, program ELIZA, udający psychoanalityka. Wykorzystywał on przetwarzanie języka naturalnego. ELIZA uważana jest za pierwszego chatbota w historii informatyki (mimo, że to pojęcie pojawiło się dopiero w 1994 roku i zostało zaproponowane przez Michael Mauldin). ELIZA rozpoznawała słowa – klucze i dostarczała odpowiedzi wcześniej już zaprogramowane.

Kolejnym ważnym osiągnięciem było stworzenie robota Shakey w 1969 roku. Pierwszy robot, zdolny do postrzegania i rozumienia otaczającego środowiska. Potrafił przenosić małe obiekty i wykorzystywał do tego widzenie komputerowe.

Po tym okresie rozwoju SI, nastąpiła zima sztucznej inteligencji. Inwestorzy zaczęli wycofywać się z projektów, ponieważ spodziewali się oni szybszych i lepszych rezultatów. Problemem była zbyt mała pojemność pamięci i mocy operacyjnych komputerów.

Dopiero po około 30 latach ta zima się skończyła i udało się przeskoczyć ograniczenia SI. W latach 90 zwiększono moc obliczeniową komputera, który zdolny był wykonywać bardziej skomplikowane operacje. W związku z tym SI stała się bardziej popularna, coraz więcej środków przeznaczano na jej rozwój. W 1997 roku komputer IBMDeepBlue pokonał mistrza gry w szachy – Kasparova, zbliżając się tym samym do inteligencji człowieka. Z kolei w 2015 roku program AlphaGo firmy DeepMind pokonał mistrza Lee Sedol w grze GO.

W 2004 roku zorganizowano pierwsze zawody samochodów autonomicznych DARPA Grand Challenge sponsorowane przez przez Defense Advanced Research Projects Agency, amerykańską agencję rządową. A już od 2018 roku w niektórych stanach w USA (np. w Kalifornii) samochody mogą poruszać się na drogach i zabierać swoich pasażerów.

Obecnie powstaje coraz więcej ośrodków badań naukowych zajmujących się sztuczną inteligencją. Pierwsze na świecie laboratorium AI powstało w latach 50. XX wieku na Uniwersytecie Carnegie Mellon. W Polsce natomiast pierwsze centrum badań nad sztuczną inteligencją powstało w Łodzi dopiero w 2019 roku. Stworzono je przy Wydziale Zarządzania Uniwersytetu Łódzkiego.

Postęp w badaniach nad sztuczną inteligencją dzieje się na naszych oczach. Branża związana z technologią obecnie rozwija się najszybciej, a nowo powstające ośrodki proponują coraz więcej innowacyjnych rozwiązań. Naukowcy prześcigają się w przewidywaniach, kiedy SI osiągnie poziom ludzki. Już teraz całkowicie zmienia nasz świat, ale przewiduje się, że prześcignie człowieka we wszystkich zadaniach w ciągu 45 lat oraz zautomatyzuje wszystkie dotychczas wykonywane przez człowieka prace w ciągu 120 lat1. Procesu tego nie da się zatrzymać, jednak stopień skomplikowania technologii, a także ogromny wpływ jaki wywiera na nasze życia sprawia, że powinniśmy mieć ją pod kontrolą.

Leave a Reply

Your email address will not be published. Required fields are marked *

en_US