Four Slupsk Lectures. I. Artificial Intelligence

Post on 11-Apr-2017

235 views 2 download

transcript

Cztery Wykłady Słupskie

Czym jest w istocie Sztuczna

Inteligencja?

Ewolucja Internetu

Co to jestBitcoin

i Blockchain?

Czym jest „Cyfrowość”

(Digital)?

Czym jest w istocie Sztuczna Inteligencja?

Plan wykładu

Sztuczna inteligencja

Nie mamy dziś ogólnie zaakceptowanej definicji Sztucznej Inteligencji!

Mamy bardzo złą „popularną” definicję (wywodzącą się z literatury i filmu Science Fiction)

wyrażoną np. w:

„The exciting new effort to make computers think … machines with minds, in the full and literal

sense.” (John Haugeland, autor koncepcji GOFAI - Good Old-Fashioned Artificial Intelligence)

Jeden z najbardziej popularnych podręczników Sztucznej Inteligencji (Russell and Norvig,

„Artificial Intelligence: A Modern Approach”) podaje aż cztery definicje:

o Systemy, które „myślą” jak ludzie

o Systemy, które „zachowują się” jak ludzie

o Systemy, które „myślą” racjonalnie

o Systemy, które „zachowują się” racjonalnie

DOBRA, ROBOCZA DEFINICJA:

„Sztuczna inteligencja (Artificial Intelligence) jest nauką oraz zbiorem technologii obliczeniowych, inspirowanych, (choć zwykle działających w zupełnie inny sposób) –metodami, jakimi posługują się ludzie używający swojego umysłu, inteligencji i cielesności, aby postrzegać, uczyć się, wnioskować i podejmować stosowne działania.”

Definicja tu przytoczona oparta jest o definicję zawartą w słynnym raporcie AI100„One Hundred Years Study on Artificial Intelligence”: http://ai100.stanford.edu/

• Prekursorem Sztucznej Inteligencji jest Alan Turning – genialny matematyk i kryptoanalityk. Twórca matematycznego modelu komputerów – ważnego do dziś.

• Sztuczna Inteligencja jako dyscyplina naukowa powstała w wyniku bardzo długiego i burzliwego rozwoju zapoczątkowanego w roku 1956 przez John’a McCarthy, który zorganizował w Dartmouth (USA) słynny „Letni Projekt badawczy Sztucznej Inteligencji”.

• J. McCarthy, M. L. Minsky, N. Rochester, C.E. Shannon. “Dartmouth Summer Research Project On Artificial Intelligence”.

• Lata 60-te XX wieku – finansowanie projektów AI przez Department of Defense.

• Optymizm:

Herbert Simon: "machines will be capable, within twenty years, of doing any work a man can do."

Marvin Minsky: "within a generation ... the problem of creating 'artificial intelligence' will

substantially be solved."

• Był to jednak optymizm przedwczesny – w latach 70-tych następuje zatrzymanie finansowania AI –

rozpoczyna się okres zwany „AI Winter” – „Zima Sztucznej Inteligencji”

• Lata 80-te – Rozwój Systemów Eksperckich – „Expert systems”

• Lata 90-te – Rozwój „Data mining”, diagnostyka medyczna

• Koniec wieku - symboliczne zwycięstwo Deep Blue (IBM) nad Gary Kasparow (Maj 1997)

• Pierwsze lata XXI wieku – Rozwój machine-learning (IBM Watson zwycięża w Jeopardy – 2011)

• 2010-2015 – Rozwój technologii „Deep Learning” „Neural networks” i „Big Data”

• 2015 – rok dynamicznego wzrostu ilości projektów AI …

Ograniczona Sztuczna Inteligencja (Narrow AI, Soft AI) jest zastosowaniem bardzo szerokiego spektrum algorytmów komputerowych do rozwiązywania problemów wymagających inteligentnej analizy, logicznego wnioskowania oraz podejmowania działań, jakie dotychczas zwykle były domeną intelektu człowieka.

Opisując zjawisko „Narrow AI” nie można wskazać jednego dominującego sposobu rozwiązywania występujących w nim problemów.

Cechą charakterystyczną tego kierunku jest stosowanie algorytmów, które są bardzo specyficzne dla specyficznych problemów.

I tak na przykład najlepsze współczesne algorytmy rozpoznawania i analizy obrazów są zupełnie inne od algorytmów analizy języka naturalnego (NLP – Natural Language Processing) czy też algorytmów Automatycznej Analizy Mowy - ASR (Automated Speech Recognition)

Ogólna Sztuczna Inteligencja (Hard AI, General AI, AGI – Artificial General Intelligence):

To dziedzina badań odnosząca się do nadal SPEKULATYWNEJ przyszłej Sztucznej Inteligencji, która charakteryzuje się inteligentnym zachowaniem przynajmniej tak zaawansowanym jak istota ludzka w bardzo szerokim zakresie funkcji kognitywnych.

Pomiędzy Ograniczoną a Ogólną Sztuczną Inteligencją występuje dziś gigantyczna przepaść.

Wszelkie usiłowania aby przejść (ewolucyjnie) od Ograniczonej go Ogólnej Sztucznej Inteligencji nie przyniosły żadnego efektu mimo dziesięcioleci badań i eksperymentów.

Ogólna Sztuczna Inteligencja stała się przedmiotem wielu spekulacji, z których najbardziej znana to teoria Singularności (Ray Kurzweil) przewidująca eksplozję inteligencji maszynowej oraz możliwości takie jak np. „upload” zawartości umysłu do komputerów.

Ale - czy Ogólna Sztuczna Inteligencja jest w ogóle możliwa ….?

Wielu wybitnych naukowców uważa, że NIE!Argumentacja jest bardzo silna:

Twierdzenie Turinga i jego konsekwencje

„He went on to prove that there was no solution to the decision problem by first showing that the halting problem for Turing machines is undecidable: It is not possible to decide algorithmically whether a Turing machine will ever halt.” https://en.wikipedia.org/wiki/Alan_Turing

Skoro Wszystkie znane dziś systemy komputerowe SĄ maszynami Turinga

Oraz Ludzki umysł posiada zdolność (nie algorytmiczną) rozwiązania „problemu stopu”

Wnioskujemy komputery nie mogą mieć zdolności posiadanych przez ludzki umysł

ZNACZENIE TWIERDZENIA GÖDEL’A.„Gödel's incompleteness theorems are two theorems of mathematical logic that demonstrate the inherent limitations of every formal axiomatic system containing basic arithmetic. (…)The theorems are widely, but not universally, interpreted as showing that Hilbert's program to find a complete and consistent set of axioms for all mathematics is impossible.”https://en.wikipedia.org/wiki/Godels_theorem

ZNACZENIE TWIERDZENIA GÖDEL’A - ARGUMENT LUCAS-PENROSE’A: „The argument claims that Gödel’s first incompleteness theorem shows that the human mind is not a Turing machine, that is, a computer. The argument has generated a great deal of discussion since then. The influential Computational Theory of Mind, which claims that the human mind is a computer, is false if Lucas’s argument succeeds. Furthermore, if Lucas’s argument is correct, then “strong artificial intelligence,” the view that it is possible at least in principle to construct a machine that has the same cognitive abilities as humans, is false.(http://www.iep.utm.edu/lp-argue/) „

PONADTO:

wielu badaczy (w tym sam Penrose) sugerowało, że jeśli poznamy lepiej zjawiska kwantowe zachodzące w mózgu, i odtworzymy je w „kwantowym komputerze” – otworzy to drogę do Sztucznej Inteligencji…

ALE …

Poglądsłynnych fizyków …

… i psychologów

Najciekawsze argumenty pochodzą z rozważań Davida Deutsch’a:https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence

Z jednej strony Deutsch nie akceptuje argumentu opartego na twierdzeniu Turinga:

Ale konkluduje:

Narrow AIOgraniczonej Sztucznej

Inteligencji

Uczenie maszynowe (Machine Learning)

Analiza Języka Naturalnego / Syntetyczna Mowa

Rozpoznawanie i analiza obrazu / Maszynowe Widzenie

Planowanie aktywności ludzi i systemów - systemy kolaboracyjne

Robotyka

Autonomiczne systemy transportowe

Diagnostyka i roboty medyczne

Maszynowa Reprezentacja Wiedzy, maszynowe Wnioskowanie

Systemy Eksperckie

Apple’s Siri

Google Now

Microsoft Cortana

Amazon Alexa

Google Search

Self Driving cars

MakoLab SESSA

http://bostondynamics.com

https://www.youtube.com/watch?v=-e9QzIkP5qI

https://www.youtube.com/watch?v=xi0kilLREJ0

TIM BERNERS-LEE oraz JIM HANDLERwyznaczają kierunki (po raz trzeci w historii)

Postulują, że jedynie Semantic Web może pomóc w stworzeniu „social machines” –agentów praktycznie pomagających nam w życiu

https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/

https://www.whitehouse.gov/blog/2016/05/03/preparing-future-artificial-intelligence

http://www.bbc.com/earth/story/20170215-the-strange-link-between-the-human-mind-and-quantum-physicshttps://www.technologyreview.com/s/428235/intel-reveals-neuromorphic-chip-design/

Ostrzeżenie Stephena Hawkinga

Lęk Elona Muska

Systematyczna wykładnia zagrożeń przez Nick’a Bostroma (Oxford)

Nie są zatem pozbawione sensu usiłowania zbudowania swoistej „etyki” dla Sztucznej Inteligencji. https://www.cs.ox.ac.uk/efai/tag/principles-of-robotics/

Izaak Asimov sformułował „trzy prawa robotów” (1942):

Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem.

Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub

Drugim Prawem. https://en.wikipedia.org/wiki/Three_Laws_of_Robotics

Koncepcji „Maszyny Deontycznej” Roberta Trypuza i Piotra Kulickiego (KUL/MakoLab):Robert Trypuz, Piotr Kulicki, „Deontic machine for prima facie duties”

Jeśliby taka ogólna AI powstała na bazie tradycyjnych (klasycznych – czyli mieszczących się w definicji „Maszyny Turinga”) technik obliczeniowych, nie sposób będzie utrzymać pogląd o „nieredukowalnym” umyśle. Konieczna byłaby rewizja koncepcji osoby ludzkiej, jako bytu duchowo-cielesnego, gdyż nie da się wtedy już utrzymać założenia o substancjalności i niezależności bytowej ostatecznej podstawy świadomości, czyli ludzkiej duszy.

Jeśli natomiast taka „General AI” powstałaby za pomocą metod bliskich „Quantum Computing” musielibyśmy dodatkowo z całą pewnością odrzucić kartezjański dualizm „duszy” i „ciała”, ale też być może nawet bardziej subtelne koncepcje relacji duszy i ciała występujące z jednej strony w tradycji Arystotelowskiej, a z drugiej –w ujęciach fenomenologicznych osoby ludzkiej.

Istnienie możliwej do technologicznego stworzenia „Ogólnej AI” naruszyłoby też pewność, z jaką w naszej kulturze a szczególnie w tradycji religii Abrahamowych, wypowiadamy się o szczególnej roli człowieka w porządku stworzenia i jego duchowo-cielesnej naturze.

Być może warto, aby właśnie w tym kontekście, filozofowie oraz przedstawiciele poglądów religijnych wzmocnili istniejący, ale niezbyt aktywny dialog, zarówno pomiędzy sobą jak również z innymi tradycjami religijnymi i zapoczątkowali poważne rozważania na temat Sztucznej Inteligencji?

Być może powstanie Ogólnej AI nie musi zaprzeczać odmienionej, ale nadal głęboko duchowej koncepcji człowieka? Warto tutaj zwrócić uwagę, iż np. w buddyzmie znajdujemyinteresujący, choć niewątpliwie kontrowersyjny pogląd, niewykluczający sztucznej inteligencji ze zdolności do osiągnięcia oświecenia duchowego.

Oczywiście, wszystkie tego typu rozważania są oparte na jedynie hipotetycznym istnieniu „Strong AI”. Dzisiaj tak rozumianej Sztucznej Inteligencji nie ma i należy zachować daleko idącą ostrożność, zarówno zakładając jej szybkie powstanie jak i też zaprzeczając takiej możliwości…

Rola Naukii Uniwersytetów

w rozwoju AI

Szczególnie ważne dla AI są następujące kierunki dydaktyki:

Algorytmy optymalizujące

Analiza danych

Niestandardowe bazy danych

Maszynowe uczenie

Maszynowe wnioskowanie

Rozpoznawanie obrazów i mowy

Reprezentacja wiedzy

Rola badań nad językiem:

Komunikacja z nowoczesnymi inteligentnymi systemami wymaga rozpoznawania i generowania mowy ludzkiej – kompetencje w zakresie NLP (Natural Language Processing) są dziś bardzo potrzebne

Automatyczna analiza tekstów i rozpoznawanie znaczeń jest bardzo ważnym elementem wielu nowoczesnych systemów cyfrowych. Lingwistyka – może odegrać ogromną rolę w tworzeniu takich systemów.

Nowoczesne kierunki takie jak kognitywistyka pozwalają na kształcenie specjalistów w dziedzinach powiązanych z „Narrow AI”

Informatyka współczesna potrzebuje dziś wsparcia zaawansowanej logiki i filozofii.

Filozofowie i etycy mogą zaangażować się w tworzenie klimatu społecznej akceptacji dla „Narrow AI”

Systemy Sztucznej Inteligencji, w tym systemy „autonomiczne” (w tym np. „self-driving cars”) wymagają bardzo starannego i racjonalnego opracowania zagadnień etycznych.

Niezmierne istotne zagadnienie w rozstrzyganiu odpowiedzialności działań systemów AI !

Racjonalizacja zagadnień etycznych może prowadzić do możliwości reprezentacji etyki za pomocą danych i programów.

Absolwenci humanistyki mogą odegrać ogromną rolę w tworzeniu regulacji prawnych stosowania AI.

Budowanie ontologii, systemów i aplikacji semantycznych, repozytoriów wiedzy – wymaga dogłębnej znajomości logiki i klasycznej ontologii.

Dziedziny takie jak epistemologii i metafizyka są również bardzo pomocne.

Klasyczne wykształcenie filozoficzne pobudza zdolność do krytycznego myślenie – niezbędną w pracy w tych dziedzinach.

Cyfrowa rzeczywistość jaka nas otacza już dziś nabiera postaci ECOSYSTEMU.

Niestety, nikt do końca nie rozumie jej istoty.

Istnieje potrzeba badań filozoficznych jakie inspiruje np. Pierre Tielhard de Chardin – por. jego pojęcia NOOSFERA, Punkt OMEGA ?

Image designed by St. Edward’s University graphic design students

Badania nad umysłem i naturą inteligencji

https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence

3/10/2012