Az érdeklődők is tisztában vannak azzal hogy a mesterséges intelligencia és a számítógépes nyelvészet története során először a sztochasztikus módszerek tűntek befutónak, majd a logikai és szabályalapú megközelítések lett egyeduralkodók egészen a kilencvenes évekig, majd a statisztikai nyelvfeldolgozás diadalmaskodott és napjainkban is megállíthatatlanul tör előre. Még szakmai berkekben is megfigyelhető egyfajta ellentét a szabályalapú és a sztochasztikus megközelítések hívei között. Azok akik bele mennek ebbe az egymásra mutogatásba és vitába azonban joggal vádolhatók felületességgel, mivel elfelejtik hogy mindkét megközelítés egy tőről fakad, de nem ugyanarról szól! Hogy ezt megvilágítsuk segítségéül hívjuk a matematika filozófiáját, a szemantikát, a szemantikus webet és a kilencvenes évek egyik rapcore bandáját is.
A 19. század végén és a múlt század elején mindenki lázasan kutatta a matematika alapjait, mivel az addig biztosnak hitt területtel kapcsolatban komoly kételyek merültek fel. Russel híres paradoxona felhívta Frege figyelmét arra hogy az aritmetika (és vele együtt az egész matematika) megalapozásához nem elég Cantor paradicsoma! A típuselmélettel Russel és Withead Principia-ja a logicizmus alapműve lett és sokan hitték hogy a matematika megalapozható logikai alapfogalmakkal és következtetési szabályokkal. Hilbert formalista programja is hasonló utakon járt, bízva abban hogy alapvető, tartalmas (ún. finit) állítások és szabályok alkalmazásával felépíthető a "nagy mű", azaz a matematika megalapozása. Az intuicionizmus hívei egészen a legalapvetőbb következtetési szabályokig visszamentek és kétségbe vonták az indirekt bizonyítások létjogosultságát. Gödel tétele azonban megváltoztatta a helyzetet, miután kiderült hogy nem tudunk olyan szép kis rendszert alkotni amiben ne lennének igaz ám nem bizonyítható állítások elkezdett alábbhagyni a lendület, ám megszületett a matematika filozófiája, vagy ha valaki nem szereti bölcseletet, a metamatematika.
Az alapok keresése arra sarkalta a kutatókat hogy a legalapvetőbbnek gondolt tételeket is próbálják meg visszavezetni még egyszerűbb, még biztosabbnak vélt elvekre. Cantor paradicsoma (a halmazelmélet) roppant alkalmasnak mutatkozott erre (persze egy kis csinosítás ráfért) és szinte minden elméletnek megszületett a halmazelméleti modellje (pl. a relációk és függvények legalapvetőbb és legjobban érthető modellje a naiv halmazelmélet). A logikusok körében rendkívül népszerű lett ez a megközelítés, elterjedt a klasszikus logika halmazelméleti modellje, megszületett Tarski igazságelmélete stb. Sokáig ezt a modellt a logika és így a logikai érvelés modelljének tartották. A metamatematika eszközei kiválóan alkalmasnak bizonyultak arra hogy bizonyításokat rekonstruáljanak és értelmezhessenek. A nyelvfilozófia irányában nyitott logikusok számára Chomsky formális megközelítése revelatív erővel hatott. Montague Tarski elméletére alapozva megmutatta hogy a természetes nyelv egy kellően nagy töredékére is alkalmazni tudjuk a modellelméleti szemantikát és ez nagy lökést adott a szemantikai kutatásoknak.
Azonban talán Montague elképzelése, mely szerint a formális nyelvek és a természetes nyelvek között nincs nagy különbség, kicsit nagyvonalúan kezelte a tényt hogy egy nyelvben nem csak a Tarski féle igazság fogalom érvényesül. Ahogy felhozható érvként a generatív nyelvelméletekkel szemben hogy túlságosan középre húznak és nem foglalkoznak a nem elhanyagolható eltérésekkel sem, ugyanúgy belátható könnyen hogy nem lehet kristálytisztán ráhúzni a formális szemantika modelljét a természetes nyelvekre (gondoljunk pl a rokoni kapcsolatok relációira ami kedvelt példa a halmazelméleti könyvekben, hogyan definiáljuk a nevelőapa fogalmát, mostoha testvérnek kit tekinthetünk, kik azok az agglegények stb).
A logikusokat és tudományfilozófusokat mindig is érdekelte a tudományos érvelés. Tisztában voltak a ténnyel hogy a kísérleti tudományok művelői nem egy olyan világban dolgoznak ahol érvényesül a klasszikus kétértékű logika. Ezért hamar megjelentek az ún. probabilisztikus (más néven valószínűségi) logikák, melyek lehetővé tették az ilyen típusú érvelések vizsgálatát. És ez rögvest felvetette annak kérdését hogy a klasszikus elsőrendű logika csak történetileg kitüntetett és a probabilisztikus logika egy leegyszerűsített esete vagy fordítva a valószínűségi logika KL egy kiterjesztése. Ezen sokat lehet vitatkozni, annyi azonban bizonyos hogy KL remek eszköz arra is hogy érveljünk PL-ről és a legtöbb dologról ami ilyen szempontból érdekes lehet, nem meglepő hogy sokan hiszik hogy kitüntetett szerepe van.
A szabályalapú megközelítések ellenfelei szeretik azt mondani hogy a logikusok és hasonszőrűek csak ülnek az elefántcsonttornyaikban, de a statisztika életszagú. Ebben van némi igazság, a statisztika valóban gyakorlati jelentőséggel bír, ha valaki elolvassa pl. a The Lady Tasting Tea című klasszikus statisztika történeti ismeretterjesztő könyvet láthatja hogy milyen valós problémák megoldására dolgozták ki a legalapvetőbb eljárásokat. De egy dologról nem szabad megfeledkeznünk, a statisztika a matematika egyik ága, törvényei nem mehetnek szembe a megszokott matematikai érveléssel!
Nyilvánvaló hogy a nyelv statisztikai megközelítése sikeres irány, csak egy Fichte mondaná a tények ellenére hogy annál rosszabb nekik. Ez a siker azonban nem áll szemben a szabályalapú megközelítéssel. A Montague grammatika nem mond többet annál hogy a nyelv azon töredéke amely leírható diszkrét formális eszközökkel az egy standard modellben értelmezhető. A disztribúciós szemantika pedig csak annyit mond hogy adott környezetben módosul a szavak jelentése. Az egyik megadja hogy miképp állíthatunk fel egy szemantikai modellt, a másik pedig megadja hogy a nyelv egyes elemei milyen viszonyban állnak egymással amikor a jelentés megkonstruálódik, de semmit nem mond magáról a jelentésről.
Habár a hagyományos megközelítést szokás azért hibáztatni mert "középre húz", nem árt tisztában lenni azzal hogy a statisztikai/probabilisztikus érvelés sem mentes a hibáktól. A legjobb előrejelzés sem tudja kiküszöbölni az előre nem látható, váratlan események bekövetkezését! Ilyenek pedig előfordulnak, természetesen nem gyakran, és nem mondanak ellent az elméletnek, de jelzik egyik legnagyobb hátrányát. Erről bővebben Nassim Taleb Fooled by Randomness könyvében olvashat a kedves olvasó, vagy kipihenheti magát a Dog Eat Dog Expect the Unexpected klippjével, ami ugyanarról szól :D
A statisztikai módszerek jók abban hogy kezelni tudjuk az adatokat és értelmezési keretet húzzunk rájuk. Azzal együtt kell élnünk hogy ezekre nem tekinthetünk úgy mint biztos alapokra, azonban megbízható társaink lehetnek. A szabályalapú megközelítés abban segít hogy megvizsgáljuk elméleteinket, többet tudjunk meg róluk együtt lássuk hibáikat és erényeiket. Talán két példa jobban megvilágítja ezt a dolgot.
A szemantikus web célja hogy olyan ontológiák jöjjenek létre amelyek lehetővé teszik hogy automatikusan lehessen belőlük információt kinyerni, vagy szolgáltatásokat végezni. Az egyik sokat emlegetett példa az orvos keresése. A képzeletbeli szituációban számítógépünk figyelmeztet minket hogy ideje éves vizitre mennünk. Mivel elköltöztünk egy új városba orvost kell keresünk. Erre megkérjük gépünket, aki kiadja az összes környéken található háziorvos nevét. Szűkítjük a kört azokra akik fél órán belül elérhetőek, majd akik hat után is tartanak hétköznap legalább egyszer rendelést. Ha ez megvan akkor utasítjuk gépünket hogy kérjen egy nekünk megfelelő időpontot, a gép pedig a doki gépével szépen egyeztet is. Milyen szép kép! Ehhez ugye az kell hogy a gépek számára is érhető formában tároljuk el pl. határidőnaplónk adatait. A gépnek pl. jó tudnia hogy ha kedvenc sorozatunk szerdán 18:30-kor kezdődik, de akkora ajánl időpontot az orvosunk akkor azt elfogadhatja, de a műsort rögzítenie kell nekünk, de ha pl. jegyünk van egy meccsre akkor jobb úgy időpontot kérnie. Ehhez ugyanakkor a doki honlapján nem csak emerek, hanem gépek számára is érthetően fent kell lennie a nyitvatartási időnek! Szintén értenie kell az orvos előjegyzési naplóját stb.
Ezek szabályok! Nagyon egyszerű logikai szabályok, melyek összefüggéseit általában egy deskripciós logikával dolgozó érvelő rendszer szokta feldolgozni. Azonban szembe kell néznünk a ténnyel hogy nagyon macerás meló minden egyes honlapot ellátni szemantikai információval is, sőt gyakran értelmetlen. Ezért indult útjára a linked data mozgalom, melynek célja hogy minnél több adatot gyűjtsön össze olyan formában ami tartalmazza az egyes elemek leírását s a köztük lévő viszonyokat is reprezentálja. A nyers adatokból ezt statisztikai módszerekkel szokták kinyerni és feldolgozni!
Ahogyan már jeleztük ezen a blogon az adatok tudománya nagyon népszerű napjainkban. Vessünk egy pillantást azonban eszközeikre! A funkcionális programozási nyelvek egyre nagyobb teret nyernek, gondoljunk pl az R népszerűségére, de Clojure, Erlang Haskell és a Scala is hirtelen tett szert nagy népszerűségre ezen a területen. Ennek oka hogy funkcionális nyelvekre sokkal könyebbe lefordíthatóak az egyes matematikai formulák. A kód rövidebb és jobban áttekinthetőbb lesz. Azonban sokan szeretnek elfelejtkezni arról hogy a funkcionális nyelvek elméleti hátterében Turing, Church és McCarthy kiszámíthatósági elmélete áll. Ezen elméleti keret megvalósítása nem csak effektív, de egyben biztos alap.
Nincsenek megjegyzések:
Megjegyzés küldése