Definicja ujednoznacznienia w badaniach językowych

click fraud protection

w językoznawstwo, ujednoznacznienie to proces określania sensu a słowo jest używany w konkretnym kontekst. Znany również jako ujednoznacznienie leksykalne.

W językoznawstwie komputerowym ten proces dyskryminacyjny nazywa się ujednoznacznienie sensu słowa (WSD).

Przykłady i obserwacje

„Tak się składa, że ​​nasz Komunikacja, w innym Języki podobnie, pozwala na używanie tej samej formy słowa do oznaczania różnych rzeczy w poszczególnych transakcjach komunikacyjnych. Konsekwencją jest to, że w konkretnej transakcji trzeba odkryć zamierzone znaczenie danego słowa wśród potencjalnie powiązanych z nim sensów. Podczas niejasności wynikające z takich skojarzeń wieloznacznych form są w leksykalny poziomie, często muszą być rozwiązywane za pomocą szerszego kontekstu z rozprawiać osadzanie słowa. Stąd różne znaczenia słowa „służba” można było odróżnić tylko wtedy, gdyby można było spojrzeć poza samo słowo, jak w przeciwieństwie do „służby”. obsługa gracza na Wimbledonie” z „obsługą kelnera w Sheraton”. Ten proces identyfikowania znaczeń słów w dyskursie jest ogólnie… znany jako

instagram viewer
sens słów ujednoznacznienie (WSD).” (Oi Yee Kwong, Nowe perspektywy strategii obliczeniowych i poznawczych dla ujednoznacznienia sensu słów. Springer, 2013)

Ujednoznacznienie leksykalne i ujednoznacznienie sensu słowa (WSD)

"Leksykalny ujednoznacznienie w najszerszej definicji jest niczym innym jak określeniem znaczenia każdego słowa w kontekście, co wydaje się być w dużej mierze nieświadomym procesem u ludzi. Jako problem obliczeniowy jest często opisywany jako „AI-kompletny”, to znaczy problem, którego rozwiązanie zakłada, że ​​rozwiązanie zostanie zakończone język naturalny zrozumienie lub rozumowanie zdroworozsądkowe (Ide i Véronis 1998).

„W dziedzinie lingwistyki komputerowej problem jest ogólnie nazywany ujednoznacznieniem sensu słów (WSD) i jest zdefiniowany jako problem obliczeniowego określenia, który „sens” słowa jest aktywowany przez użycie słowa w konkretnym kontekst. WSD jest zasadniczo zadaniem klasyfikacji: sensy słów to klasy, kontekst zapewnia dowód, a każde wystąpienie słowa jest przypisane do jednej lub więcej jego możliwych klas w oparciu o dowód. Jest to tradycyjna i powszechna charakterystyka WSD, która postrzega ją jako wyraźny proces ujednoznacznienia w odniesieniu do ustalonego zasobu znaczeń słów. Zakłada się, że słowa mają skończony i dyskretny zestaw sensów z słownik, leksykalna baza wiedzy lub ontologia (w tym ostatnim sensy odpowiadają pojęciom, które leksykalizuje słowo). Można również użyć spisów specyficznych dla aplikacji. Na przykład w ustawieniu tłumaczenia maszynowego (MT) można traktować tłumaczenia słów jako sensy słów, an podejście, które staje się coraz bardziej wykonalne ze względu na dostępność dużych wielojęzycznych równoległy korpusy które mogą służyć jako dane treningowe. Stały spis tradycyjnego WSD zmniejsza złożoność problemu, ale istnieją alternatywne pola.. ..” (Eneko Agirre i Philip Edmonds, „Wprowadzenie”. Ujednoznacznienie sensu słów: algorytmy i aplikacje. Springer, 2007)

Homonimia i ujednoznacznienie

"Leksykalny ujednoznacznienie doskonale nadaje się szczególnie do przypadków homonimia, na przykład wystąpienie bas musi być zmapowany na jeden z elementów leksykalnych bas1 lub bas2, w zależności od zamierzonego znaczenia.

„Dezambiguacja leksykalna implikuje wybór poznawczy i jest zadaniem, które hamuje procesy rozumienia. Należy go odróżnić od procesów, które prowadzą do różnicowania sensów wyrazów. Pierwsze zadanie wykonuje się dość niezawodnie, także bez dużej ilości informacji kontekstowych, podczas gdy drugie nie (por. Veronis 1998, 2001). Wykazano również, że wyrazy homonimiczne, które wymagają ujednoznacznienia, spowalniają dostęp leksykalny, z kolei wyrazy polisemiczne, które aktywują wielość sensów wyrazowych, przyspieszają dostęp leksykalny (Rodd m.in. 2002).

„Jednak zarówno produktywna modyfikacja wartości semantycznych, jak i prosty wybór między leksykalnie różnymi przedmiotami mają: Powszechnie wiadomo, że wymagają one dodatkowych informacji nieleksykalnych” (Peter Bosch, „Productivity, Polysemy and Predicate Indexicality”). Logika, język i obliczenia: 6. Międzynarodowe Sympozjum Tbilisi na temat logiki, języka i obliczeń, wyd. przez Baldera D. dziesięć Cate i Henk W. Zeevata. Springer, 2007)

Ujednoznacznienie kategorii leksykalnej i zasada prawdopodobieństwa

„Corley i Crocker (2000) prezentują szeroko zakrojony model kategoria leksykalnaujednoznacznienie na podstawie Zasada prawdopodobieństwa. W szczególności sugerują, że dla zdania składającego się ze słów w0... wn, procesor zdania przyjmuje najbardziej prawdopodobną część mowy sekwencja T0... Tn. Dokładniej, ich model wykorzystuje dwa proste prawdopodobieństwa: (i) warunkowe prawdopodobieństwo słowa wi daną konkretną część mowy Ti, oraz (ii) prawdopodobieństwo Ti biorąc pod uwagę poprzednią część przemówienia Ti-1. Po napotkaniu każdego słowa w zdaniu system przypisuje mu tę część mowy Ti, co maksymalizuje iloczyn tych dwóch prawdopodobieństw. Ten model opiera się na spostrzeżeniach wielu syntaktyczny niejasności mają podstawę leksykalną (MacDonald i in., 1994), jak w (3):

(3) Ceny magazynowe / marki są tańsze niż reszta.

„Te zdania są tymczasowo niejednoznaczne między czytaniem, w którym ceny lub sprawia, że jest główny czasownik lub część złożone. Po przeszkoleniu na dużym korpusie model przewiduje najbardziej prawdopodobną część mowy dla ceny, poprawnie biorąc pod uwagę fakt, że ludzie rozumieją Cena £ jako rzeczownik ale sprawia, że jako czasownika (zob. Crocker i Corley, 2002 i cytowane tam odnośniki). Model uwzględnia nie tylko szereg preferencji ujednoznaczniania zakorzenionych w kategorii leksykalnej niejasności, wyjaśnia to również, dlaczego ludzie na ogół są bardzo dokładni w rozwiązywaniu takich niejednoznaczności”. (Mateusz W. Crocker, „Rational Models of Comprehension: adresowanie paradoksu wydajności”. Psycholingwistyka XXI wieku: cztery podstawy, wyd. przez Annę Cutler. Lawrence Erlbaum, 2005)

instagram story viewer