Skip to content
Outlook on life
Religions and sects
The Bible
The Church and Catholicism
Philosophy
Science
Society/Politics
The law
State and politics
Culture
Articles and essays
Literature
People, quotes
Various topics
WWW - Links
Found on the Web
Cooperation
Letters from readers
We have registered
204.982.739 visits
There are 7362 articles
written by 1064 authors.
They could occupy 29015 A4 pages
Search in sites:
Advanced search..
The latest sites..
Digests archive....
How do you like that?
This rocks!
Well done
I don't mind
This sucks
Casted 2992 votes.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:
Czuję dotyk Jego Makaronowych Macek - emblemat pastafarian
Kubek z rybką Darwina
Znajdź książkę..
Comments to article
Kilka uwag o sztucznej inteligencji
Enter your comment on this article …
Jacek Placek - Banki
W niektórych krajach, algorytmy stosowane przez banki (ratingi) muszą być jawne (takie prawo). I nie są to szczególnie skomplikowane twory. Jeżeli chodzi o nasze krajowe banki, to sam robiłem jakiś rok temu taki mechanizm dla jednego banku - nie ma w nim żadnej inteligencji. Prezesi nie rozumieją jak działają algorytmy SI, a nikt nie zaryzykuje pieniędzy banku, polegając na algorytmie, który napisał jakiś informatyk - wolą mieć czarno na białym kto co dostanie i dlaczego. Tym bardziej, że w przypadku sieci neuronowej pytanie o uzasadnienie odpowiedzi ma niewielki sens..
Author:
Jacek Placek
Date:
24-02-2009
Reklama
Radecki - Niemożliwe w najbliższej przyszłości?
1 na 1
Wielu specjalistów od AI twierdzi, że aktualny stan technologii informatycznych
już
umożliwia stworzenie maszyny, która przejdzie test Turinga.
Póki co byłoby to jeszcze zadanie klasy "
Genome Project
" (kilka lat, kilka miliardów USD).
Ale Prawo Moora działa ;)
Author:
Radecki
Date:
24-02-2009
rudyment - emocje
Ludzka inteligencja bez emocji nie będzie działać. Sztuczna także nie(bo niby dlaczego), czyli jakieś sztuczne emocje takżem usza w sieci neuronowej czy czymś innym być.
Być może Si już istnieje,ale jeśli się uprzemy że coś, co ciągnie wóz, musi koniecznie wyglądać jak koń, to nie zauważymy silnika.
Author:
rudyment
Date:
24-02-2009
AW. - .
1 na 1
Warto zauważyć, że sieci neuronowe są faaajne, ale koszmarnie nieefektywne. Problem oceny ryzyka kredytu jeśli jest rozwiązywany metodami SI, to na pewno za pomocą dedykowanych systemów ekspertowych (one uwzględniają najróżniejsze czynniki, ale nie mają struktury sieci i dobór wag jest często arbitralny), które są szybkie i małe.
Zagadnienie rozpoznawania liter również jest rozwiązywane inaczej, systemy OCR dostępne na rynku nie implementują sieci neuronowych.
Problem z siecią neuronową polega na tym, że zazwyczaj jej szybkość działania jest mała, a rozmiar niewspółmiernie duży w stosunku do możliwości. W ramach projektu na PWr należałem do grupy implementującej sieć samouczącą do rozpoznawania odcisków palców i przy wszelkich sensownych rozmiarach obrazka wejściowego rozmiary sieci były niesensowne :) ot tak od 100 MB w górę, z możliwością nauczenia max kilkuset odcisków.
Swoją drogą zagadnienie rozpoznawania odcisków palców w kryminalistyce rozwiązuje się również bez sieci, za to z dużą ilością matematyki (algorytmy identyfikujące charakterystyczne punkty odcisku itd. - materiał na spory artykuł, może na racjonaliście kiedyś? )
pozdrawiam.
Author:
AW.
Date:
25-02-2009
Lukasz Majczak - inteligencja, a świadomość
Cytat z wykładów SSN z PolSl: "Czy można POWAŻNIE mówić o sztucznej inteligencji, w sytuacji, kiedy maszyna, która z jednej strony wygrywa z mistrzem świata w szachy, z drugiej, nie ma o tym najmniejszego pojęcia?"
Sztuczne sieci neuronowe generalnie sluza do aproksymowania roznorakich funkcji - gdy znamy argumenty i warosci ale nie znamy wzoru.
Sieci sa naprawde pozyteczne, ale raczej gdy wspoldzialaja z innymi elementami - raczej bezsensowne wydaje sie tworzenie sieci gdzie na wejscie podaje sie kazdy piksel badanego obrazu, owiele bardziej efktywne jest zastosowanie wstepnego przetwarzania danych, ekstrakcji cech - minimalizacji danych wejsciowych dla sieci.. oczywiscie 'obcinanie' zmiennych wprowadza pewne odchylenia co do wyniku ;)...
Połącznie statystyki, SSN, alg. gen i calej masy algorytmow, metod numerycznych i matemtyki 'w ogole' daje naprawde spore pole do popisu :)
Author:
Lukasz Majczak
Date:
26-02-2009
Rafał
Jak już stwierdzili poprzednicy do prognozowania efektywności kredytów wystarczy analiza statystyczna. Chociaż w zmiennych warunkach zewnętrznych może być trudno porównać wyniki z różnych okresów.
Końcowe stwierdzenie - że emocje to ważny składnik umysłu, więc stąd problem ze zbudowaniem sztucznego mózgu - to podejście od niewłaściwej strony. Prosty układ sztucznych neuronów nie przejawia tak dużej samoorganizacji jak nasz mózg, więc być może m.in. nie pojawiają się w nim emocje. Na razie budowane są tylko bardzo proste układy sztucznej inteligencji. Kiedy uda się zbudować układ przynajmniej liczbą elementów podobny do mózgu (co może nastapic niedługo), będzie można próbować znaleźć w nim samoorganizację i inteligencję oraz emocje. Ale to może zająć jeszcze wiele lat pracy.
Author:
Rafał
Date:
27-02-2009
Satyr - komentarz kognitywisty...
W ostatnim akapicie... niezdolność do odczuwania emocji nie ma większego związku z inteligencją (proszę spojrzeć chociażby na socjopatów).
Za to istotnym problemem jest fakt, że stworzenie "sztucznego mózgu" w żadnym razie nie jest niemożliwe. Niemożliwe zaś (na dzień dzisiejszy) jest stworzenie sztucznego umysłu i to tu jest problem (głównie dlatego, iż współczesna nauka nie jest w stanie odpowiedzieć na pytania "czym jest umysł?" i co ważniejsze "jak działa umysł?".
pozdrawiam.
Author:
Satyr
Date:
27-02-2009
Migotek - Uwaga! Komentarz w trzech cześciach.
Sztuczna Inteligencja nigdy nie powstanie. NIGDY. Zanim mą heretycką głowę rozgniecie młot słusznego gniewu boga postępu, pozwolę sobie zanudzić Autora i szanownych komentujących historyjką o pewnym eksperymencie logicznym zaprezentowanym w 1980 roku przez Johna R Searle'a w artykule „Minds, Brains, and Programs" w czasopiśmie „Behavioral and Brain Sciences”. Był on parafrazą Testu Turinga, w którym człowiek w jednym, a maszyna/komputer w drugim pokoju jednocześnie odpowiadali na zadawane im pytania. Celem Testu Turinga było, jak zapewne Państwo wiedzą, sprawdzenie czy maszyna aspirująca do miana Sztucznej Inteligencji będzie w stanie tak prowadzić „rozmowę”, że zadający pytania nie byłby w stanie określić czy odpowiedź otrzymał od człowieka, czy od maszyny. Wersję tego testu można było zobaczyć w cytowanym już przez Autora filmie Blade Runner, gdzie finalnie stawiane jest pytanie czy przedmiot w pełni manifestujący i naśladujący „człowieczeństwo” nie staje się podmiotem, ergo istotą posiadającą autonomiczną świadomość, intencjonalność oraz osobowość? Searle
obala tą teorię, prezentując własną wersję Testu Turinga, nazywając go „Chińskim Pokojem”. C.D.N.
Author:
Migotek
Date:
30-03-2013
Migotek - Uwaga! Komentarz w trzech cześciach...
Pytania są zadawane na kartce papieru, ale po chińsku. Searle nie zna chińskiego, ale dysponuje bardzo obszerną instrukcją, krok po kroku pokazującą jak łączyć poszczególne symbole alfabetu chińskiego, tak aby powstała „odpowiedź” na zadane mu pytanie. Instrukcja nie wyjaśnia, co znaczą poszczególne symbole, ani co jest pytaniem, a co odpowiedzią. Searle wie jedynie, że jeśli otrzyma na kartce np. dwa zawijasy z trzema kropkami, to ma „odpowiedzieć” jednym zawijasem z dwoma liniami pośrodku itd. Searle pokazuje tutaj, że (w teorii) jest w stanie prowadzić sensowną „rozmowę”, tak aby zadający pytania nie był w stanie się zorientować, że Searle nie ma najmniejszego pojęcia o jej treści. Dopóki Searle „wykonuje” program zawarty w instrukcji nigdy nie będzie świadom
znaczenia rozmowy, ani nawet tego, że ją prowadzi. Nie ma znaczenia obszerność instrukcji, czy szybkość wykonywanych przez Searle'a działań. Nic z tego nie spowoduje nagle zrozumienia znaczenia symboli chińskich ani świadomości prowadzonej rozmowy.
Instrukcja również nie stanie się świadoma mimo jej ogromnej złożoności.
C.D.N.
Author:
Migotek
Date:
30-03-2013
Migotek - Uwaga! Komentarz w trzech cześciach...
Chiński Pokój dowodzi zatem, że nie jest możliwe zbudowanie takiego systemu komputerowego lub algorytmu, który operując symbolami syntaktycznymi, będzie „rozumiał” ich semantykę. Mam nadzieję, że domyślacie się już Państwo, że taki system nigdy nie przeszedłby Testu Turinga, nie rozumiejąc znaczenia poszczególnych pytań i odpowiedzi. Myślę, że każdy z Państwa jest w stanie sobie wyobrazić pytanie, które zawiera w sobie wiele różnych znaczeń i wyłącznie od kontekstu rozmowy zależy, jaka odpowiedź jest poprawna. Dla zainteresowanych tematem odsyłam na stronę wiki gdzie znajdą Państwo całą bibliografię oraz pobieżne omówienie samego eksperymentu, a także jego krytykę
–
en.wikipedia.org/wiki/Chinese_room.
Z wrodzonej uprzejmości „spsuję” Państwu niespodziankę: nikt do tej pory nie obalił zasadniczej tezy eksperymentu Searle'a: bez rozumienia znaczenia, nie ma mowy o świadomości ani o umyśle. Pozdrawiam.
P.S. Przepraszam za ten przerost treści, ale temat badań nad umysłem, a także SI jest tak obszerny, że ograniczenie go do dwóch zdań nie pozwoliłoby mi spać w nocy.
Author:
Migotek
Date:
30-03-2013
Sort comments
from the newest
Sign in to add comment
Sign in as
:
Password
:
Sign in using Facebook or OpenID
In case not signed in -
sign up..
Advertisement
[
Cooperation
] [
Advertise
] [
Map of the site
] [
F.A.Q.
] [
Store
] [
Sign up
] [
Contact
]
The Rationalist ©
Copyright
2000-2018 (English section of Polish Racjonalista.pl)
The Polish Association of Rationalists (PSR)