Sok vastag filozófiakönyvet írtak már arról, hogy mi is az a gondolkodás, de ebben nincs konszenzus még ma sem a tudomány képviselői között. Pedig ha bele akarjuk ültetni a gépekbe az emberi gondolkodás folyamatait, akkor feltétlenül meg kell értenünk, hogy mi is az valójában. Ahhoz, hogy ezt megértsük először is a nyelvről kell értekeznünk, mint az emberi gondolkodás legfőbb tükörképéről.
Hegel Marx materializmusával szemben a nyelvi logika elemeire vezeti vissza az abszolút világszellemet, ami a történelmet áthatja és irányítja, és szerinte az abszolút világszellem korlátlan. Tehát valamiféle összefüggést feltételez a nyelv és a korlátlanság között. Vajon miben rejlik ez az összefüggés? Ennek megértéséhez először is a végtelen fogalmában kell jobban elmélyednünk. A halmazelmélet tudományának mai állása szerint két halmaz elemeinek száma egyenlő, ha elemeiket egyértelműen meg tudjuk feleltetni egymásnak. Ez a halmazelmélet szerint igaz mind a véges, mind pedig a végtelen halmazokra. Csak azt kell bizonyítani, hogy ha két végtelen halmaz elemeit egymáshoz rendeljük az egy-egy egyértelmű leképezés. Így például könnyen bebizonyítható, hogy az a leképezés, amelynek során a természetes számokat kétszeresükhöz (vagy éppen minden természetes számot a feléhez) rendelünk, egy-egy egyértelmű leképezés.
1 → 2
2 → 4
3 → 6
4 → 8
5 → 10
6 → 12
7 → 14
8 → 16
És így tovább. Eszerint tehát éppen annyi páros szám van, mint amennyi természetes szám. Vagyis a természetes számok halmaza egyenlő számosságú egyik részhalmazával. Ugyanezzel a módszerrel könnyen bebizonyítható az is, hogy a természetes számok halmaza egyenlő számosságú a racionális számok halmazával. Kiszámítható, hogy melyik természetes számnak melyik racionális szám felel meg.
2 → 1/1
3 → 1/2
4 → 2/1
5 → 1/3
6 → 3/1
7 → 1/4
8 → 2/3
9 → 3/2
10 → 4/1
És így tovább. Cantor bizonyította be a matematikatudomány mai állása szerint, hogy a valós számok nagyobb számosságúak mint a természetes számok. Ezt a következő gondalatmenettel tette meg: „Vegyük a 0 és 1 közötti valós számokat, tizedesjegyekkel kifejezve (például: 0,47 936 421…) úgy, hogy a tizedesvessző után minden számnak végtelen sok számjegye van. Ha vége van a tizedesjegyeknek, akkor nullákkal folytatjuk. Tegyük fel, hogy a valós számokat sorba lehet állítani, és így kölcsönösen egyértelműen meg lehet feleltetni a természetes számokkal. Ekkor tehát minden valós számot ebben a formában lehetne leírni.
0, A1 A2 A3 A4 …
0, B1 B2 B3 B4 …
0, C1 C2 C3 C4 …
Most próbáljunk meg új számot létrehozni Az első számjegy más lesz, mint A1, a második számjegy más lesz, mint B2, a harmadik számjegy más lesz, mint C3 és így tovább. Így egy új, 0 és 1 közötti valós számhoz jutottunk, de oly módon, hogy az különbözik a teljesnek feltételezett valós számok listájának minden egyes tagjától. Tehát ellentmondáshoz jutottunk. Mindebből az következik, hogy lehetetlen felsorolni a valós számokat. Ebből a gondolatmenetből Cantor bizonyítottnak látta, hogy a valós számok nagyobb számosságúak a természetes számoknál. Cantor a valós számok nagyobb végtelen számosságát megszámlálhatatlanul végtelennek nevezte el. A természetes számok kisebb végtelen számosságát pedig megszámlálhatóan végtelennek. Ha jobban megnézzük az előbbi példát, ott a megszámlálhatatlanul végtelen számosság azért nagyobb, mert az amellett, hogy végtelenül nagy, az elemei végtelenül sok módon össze is kombinálhatóak egymással. Lényegében ugyanez igaz a nyelv szavait alkotó hangokra, vagy írott karakterekre is. A szavakat alkotó betűkből végtelenül sokat alkothatunk, és azokat a különféle szavakban, mondatokban, vagy hosszabb szövegekben végtelenül sok módon összekombinálhatjuk egymással.
A nyelv lehetőségei tehát megszámlálhatatlanul végtelenek, azaz mindent túlhaladnak, a végtelent is, így lényegében korlátlanok. A filozófiában azt az objektumot nevezzük korlátlannak, ami minden lehetőséget túlhalad, a végtelent is. A nyelv és a korlátlanság így függ össze egymással amit Hegel jól megsejtett. Azt is meg kell azonban állapítanunk, hogy a nyelv elemei ugyan végtelenül sok módon kombinálhatóak egymással, de a számokkal ellentétben csak bizonyos szabályok szerint kombinálhatóak. Lényegében minden nyelv esetében más szabályok szerint. Ezeket a szabályokat pedig nem matematikai törvények szabályozzák, hanem a nyelv elemeinek, a beszédhangoknak, szótagoknak, szavaknak a milyensége, állaga.
Egy szótag jellege, mint például a "tek" szótagé eleve meghatározza, hogy milyen más szótagokhoz kapcsolódhat, milyen más szótagokat vonz magához. A "tek" szótaghoz például jól illik a "nős" szótag ezért jöhetett létre a magyar nyelvben a teknős szó. A nyelv mindig folyamatosan változik, fejlődik. Folyamatosan új nyelvi elemek képződnek benne. Mivel pedig egy nyelv elemkészlete, elemeinek összessége így eleve meghatározza, hogy milyen más nyelvi elemek milyen valószínűséggel kapcsolódhatnak hozzá a fejlődés során, azt mondhatjuk, hogy a nyelv elemei között valószínűségi kapcsolat van. Lényegében a nyelv összes eleme valószínűségi kapcsolattal bír az összes többivel szemben, és ez a valószínűség a nyelv fejlődése során is változik, az újonnan jött nyelvi elemekkel párhuzamosan. A nyelv elemei kölcsönösen meghatározzák egymást, hogy milyen valószínűséggel, és milyen számban lehetnek benne a nyelv egészében. Így a nyelv lényegében egy valószínűségi hálózatnak tekinthető, ahol az elemek egymással képzett valószínűségi viszonyait nem matematikai törvények, hanem a nyelv anyagának tulajdonságai határozzák meg, amelyek nem számszerűsíthetőek. Ezért nem lehet a nyelvet tisztán matematikai fogalmakkal leírni.
Ugyanez igaz a művészetre, vagy a tudomány és a technika információtömegére is. Azoknak az elemei is végtelenül sok módon kombinálhatóak egymással, de csak meghatározott szabályok szerint, és hogy az egyes elemek milyen más elemekkel, és milyen valószínűséggel kombinálódnak, azt csakis az elemek belső jellege határozza meg. Az impresszionista festészetben például meghatározott szabályok szerint formálódnak a festményeken az alakok színeinek arányai, hogy milyen színű alakokhoz milyen más színű alakok illenek esztétikusan. Amely szabályokat fel lehet rúgni, de akkor nem lesz esztétikus a kép. A művészet is, a nyelv is, és a tudományos, technikai információtömeg is nem más, mint a megszámlálhatatlanul végtelen korlátlanság, vagyis a tiszta szellem beáramlása az anyagba. Ha a tiszta szellem beáramlik az anyagba, akkor az tagolttá és végtelenül kombinálhatóvá válik, és megjelennek benne a valószínűségi hálózatok. Ha pedig a nyelv az emberi gondolkodás tükörképe, akkor ez az emberi gondolkodásról is elmondható. Mert mi is lényegében az emberi gondolkodás? Nyilvánvalóan valószínűségszámítás.
Az ember minden gondolati tevékenységében az élete során felhalmozott tapasztalatai alapján, a fejében tapasztalatokat összekombinálva, valószínűségi elemzést készít, hogy egy elkövetkezendő cselekedete milyen következményekkel járhat. Ha arra jut, hogy rá nézve jó következménnyel jár, akkor végrehajtja, ha nem akkor pedig nem. Ez ilyen egyszerű. Furcsa, hogy azok a filozófusok akik vastag könyveket írtak tele gondolatokkal, hogy mi is az a gondolkodás nem tudták belátni ezt a pofonegyszerű, egy mondatban elmondható, igazságot. A gondolkodás, vagyis a különféle egymástól elkülönülő elemek sikeres vagy sikertelen összekombinálása nem más, mint a valószínűségi elemzés tudománya.
A mesterséges intelligencia kutatók viszont részben már eljutottak eddig a gondolatig, és egy külön tudományágat is építettek rá, a gépi tanulás tudományát, amely egy másik technológiai trendre a Big Data-ra épül. A technológia területén manapság szinte minden az úgynevezett Big Data-ról szól. Ez az új tudományág a közelmúltban keletkezett, az informatika robbanásszerű fejlődésének köszönhetően, mivel nagyon nagy mennyiségű adat gyűlt össze szinte minden gazdasági és technológiai szektorban. Így a kereskedelemben, az orvostudományban, a távközlésben, a genetikában, a csillagászat területén stb.. Mint tudományág pedig arra jó, hogy ezekben a nagy mennyiségű adathalmazokban összefüggéseket és mintázatokat keressen különféle matematikai és statisztikai eszközökkel. A kereskedelem területét példaként véve egy olyan kereskedelmi adathalmazban, ahol az tartják nyilván, hogy a vevők miket vásároltak, lehet például összefüggéseket keresni az egymást kiegészítő termékek vásárlásának gyakoriságai között.
Így például elemezni lehet, hogy azok a vásárlók, akik gyakran vesznek kenyeret hány százalékban vásárolnak mellé tejet is. Ha pedig gyakran vásárolják ezt a két terméket együtt az hasznos információ a bolt számára, hiszen akkor érdemes a pékárukat, és a tejtermékeket egymás közelébe pakolni a boltban, hogy kényelmes legyen a vásárlás. A Big Data technológiája ma már a mesterséges intelligencia kutatásban is teret nyert, amiből egy külön tudományágat hasított ki magának. A gépi tanulás elméletét, ami azt jelenti, hogy ha egy Big Data alkalmazást, amely folyamatosan és automatikusan elemez egy ilyen nagy adathalmazt statisztikai eszközökkel, akkor az így kielemzett tények képessé tehetik ezt az alkalmazást arra, hogy bizonyos feladatokat jobban oldjon meg akár az embernél is.
Például az orvostudomány területén, ha egy ilyen Big Data alkalmazásba betáplálunk egy rakás képet melanómás daganatokról, továbbá adatként azt is, hogy melyik volt rosszindulatú és melyik volt jóindulatú. Akkor ez az alkalmazás statisztikai eszközökkel elemezni tudja, hogy a fényképeken a daganatokat milyen elváltozások jellemzik nagyobb százalékban, ha azok rosszindulatúak, vagy ha jóindulatúak, és ha legközelebb betáplálják neki egy új melanóma gyanús beteg fényképét, akkor arról meg tudja állapítani, hogy az a daganat rosszindulatú, vagy jóindulatú. Általában jobban is, mint egy bőrgyógyász, mert több daganat fényképe áll a rendelkezésére, mint amennyit életében egy bőrgyógyász láthatott, és így mesterséges intelligencia alapú orvosi diagnózisokat állíthatunk elő.
A gépi tanulásra alapozott mesterséges intelligencia alkalmazásokat ma már nagyon sok területen alkalmazzák, még a tudományos kutatás területén is. Létezik olyan Big Data alapú mesterséges intelligencia alkalmazás, ami a korunkra már óriási mennyiségűre növekedett orvosi publikációkat vizsgálja át és elemzi, amelyeket egy ember száz évig sem tudna elolvasni, hogy azokban új összefüggéseket fedezzen fel, amelyek új tudományos eredmények magvai lehetnek. A gépi tanulás tehát egy valóban létező mesterséges intelligencia alkalmazás, statisztikát, illetve valószínűségszámítást használ, de az emberi gondolkodást mégsem modellezi kellőkép. Ezzel a módszerrel ugyanis általában csak emberi foglalkozások rutinszerű részfeladatai modellezhetőek és végezhetők el, még ha hatékonyabban is, mint ahogy egy ember csinálná.
Az olyan tevékenységeket ugyanis, amelyek nem egy foglalkozás rutinszerű részfeladataiból állnak, hanem tudásszegmensek kreatív összekapcsolásából sokak szerint továbbra is emberek fogják végezni. Ugyanis csak az emberi gondolkodás képes egymástól eltérő jellegű információkat összekapcsolni, és ezzel új helyzetekre reagálni. Ha például egy ember tudomására jut, hogy kint eleredt az eső, és tudja, hogy a lakásában van esernyő, akkor képes ezt a két tudattartalmat összekapcsolni, és rájön, hogy magához kell vennie az esernyőt, ha ki akar menni az utcára. Viszont a melanómás daganatokat elemző Big Data alkalmazás ugyan jól ki tudja szűrni a melanómás daganatokat, mert arról rengeteg információ van a memóriájában, de ha egy ilyen melanómás betegnek valamilyen más betegsége is van, ami súlyosbítja az állapotát, arról már nem tud információt nyújtani az orvosnak, mert arról nem állnak rendelkezésre képek a memóriájában. Mint ahogy a kórházból sem tud kimenekülni, ha tűz üt ki ott, mert erről sem állnak a rendelkezésére elemezhető információk, hogy azt hogyan kell megtenni.
Ezekkel a Big Data alkalmazásokkal egyszerre csak egyfajta információtömeget lehet elemezni, és így csak egy területen lehet őket fejleszteni, de egymástól eltérő információk összekapcsolására nem képesek, ezért nem tudnak új helyzeteket kezelni, nem tudnak úgy működni, mint az emberi gondolkodás. Pedig az emberi gondolkodás egyik legfőbb jellemzője az egymástól elkülönülő elemek kreatív összekapcsolása. Ennek véleményem szerint az az oka, hogy a Big Data technológiája eddig csak az adatok térbeli dimenzióját vette figyelembe, és figyelmen kívül hagyta az adatok időbeli dimenzióját. A különféle képi, vagy szöveges adatok mint ahogy azt fent leírtam összeforrott, de egymástól elkülöníthető elemekből állnak, amelyek időbeli fejlődés folyamatában kapcsolódtak össze, és ezek az elemek egymással valószínűségi viszonyban állnak, valószínűségi hálózatokat alkotnak. Ahhoz hogy egy gépi tanulási eszközökkel felszerelt számítógép egymástól különálló adatokat tudjon összekombinálni, ezeket az adatokat elemeikre kellene bontani, a különféle adatelemeknek megfelelő valószínűségi súlyozást kellene adni, hogy milyen valószínűségi viszonyban állnak egymással.
Milyen számban vannak jelen az egyes adatelemek, és milyen valószínűséggel határozzák meg egymás jelenlétét az adathalmazban egymáshoz illőségük alapján. Lehetne ezt akár úgy is csinálni, hogy az adatelemek időbeli rétegeit is külön-külön kielemezzük, hogy az adathalmaz fejlődése során a mindig újonnan hozzákapcsolt adatelemek hogyan változtatták meg annak valószínűségét hogy az új, rájuk következő adatelemek milyen számban kapcsolódnak az adathalmazhoz. Majd így már valószínűségi elemzést lehetne készíteni arról, hogy egy másik ugyanígy elemeire bontott, és valószínűségekkel súlyozott adathalmaz elemei milyen valószínűséggel kapcsolhatók hozzá az eredeti adathalmazhoz úgy, hogy a hozzákapcsolás releváns eredményt adjon.
A jobb szemléltetés érdekében vegyük egy festészeti stílusirányzat, mondjuk az impresszionizmus összes elkészült festményét, mint adathalmazt. Tápláljuk be ezeket képfájlokként egy gépi tanulási eszközökkel felszerelt számítógép memóriájába. A festményeket bontsuk elemeire a számítógép számára érthető és feldolgozható módon a stílusirányzat művészi jellegének megfelelően, hogy ebben a stílusirányzatban milyen emblematikus alakok, formák, színviszonyok vannak az egyes festményeken, amelyek alapjaiban meghatározzák a stílusirányzat jellegének egészét. Adjunk valószínűségi súlyozást az elemeknek, hogy milyen számban vannak jelen a festményeken egymáshoz viszonyítva. Tegyük ezt meg időbeli rétegenként is, hogy a stílusirányzat fejlődése során a festményekhez újonnan kapcsolódó emblematikus festészeti elemek milyen mértékben változtatták meg annak valószínűségét, hogy a rájuk következő új elemek milyen számban kapcsolódnak majd az alkotásokhoz. Majd ezután már valószínűségi elemzést készíthetünk arról, hogy egy másik festészeti stílusirányzat, mondjuk a kubizmus ugyanígy elemeire bontott és valószínűségekkel súlyozott adathalmazának elemei milyen valószínűséggel illenek esztétikusan az impresszionista festészet adathalmazának elemeihez az alapján, hogy mennyire hasonlítanak azokhoz az elemekhez, amelyek eddig nagyobb valószínűséggel csatlakoztak az impresszionista festészet adathalmazának adatelemeihez annak fejlődése során.
Ha egy ilyen folyamat végén például a gép hozzákapcsol egy adatelemet egy kubista adathalmazból származó festményből egy impresszionista adathalmazban meglévő festményhez és az egy emberi szem számára esztétikus eredményt ad, akkor az új festményt hozzá lehet adni az eredeti adathalmazhoz, újra lehet számolni a valószínűségeket, majd előröl lehet kezdeni az folyamatot ugyanazzal vagy akár más adathalmazzal, adathalmazokkal egy önfejlődő struktúrát hozva létre. Mivel ez a fajta gépi tanulás az adatok időbeli fejlődésére épül, elnevezhetjük evolúciós gépi tanulásnak, és ez már modellezhetné az emberi gondolkodást, bár nyilván csak a gyakorlati alkalmazás mutathatná meg, hogy milyen sikerrel.
Nincsenek megjegyzések:
Megjegyzés küldése