Używamy cookies i podobnych technologii m.in. w celu świadczenia usług i w celach statystycznych. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce, w jej ustawieniach. Jeżeli wyrażasz zgodę na zapisywanie informacji zawartej w cookies, kliknij „Zamknij”. Jeżeli nie wyrażasz zgody – zmień ustawienia swojej przeglądarki.Więcej informacji znajdziesz w naszej Polityce cookies.

Zamknij informację o cookies
.

Ośrodek  Przetwarzania  Informacji  –  Państwowy  Instytut  Badawczy

Prezentowaliśmy model głębokiego uczenia na 2019 IEEE International Conference on Systems, Man and Cybernetics

Tegoroczna 2019 IEEE International Conference on Systems, Man and Cybernetics (SMC) odbywała się od 6 do 9 października 2019 r. na Bari we Włoszech.

Naszym wysłannikiem był dr Jarosław Protasiewicz, kierownik Laboratorium Inteligentnych Systemów Informatycznych, który w imieniu własnym, Sławomira Dadasa z OPI PIB i Witolda Pedrycza z University of Alberta wygłosił tam wystąpienie pt. „A Deep Learning Model with Data Enrichment for Intent Detection and Slot Filling”.

Wystąpienie spotkało się z dużym zainteresowaniem uczestników konferencji.

Poniżej prezentujemy streszczenie wystąpienia w języku angielskim:

Abstract: A model for accurately solving the tasks of intent detection and slot filling requires a substantial amount of user queries annotated manually, which is time-consuming and costly. In this study, in order to circumvent this problem, we propose a method of expanding a training set for handling these two tasks. The data are augmented by applying a random mutation to the training samples, following a set of heuristic rules. For validation of the method, we construct a compound neural architecture composed of a long short-term memory layer, an attention mechanism, and conditional random fields. The experiments conducted on the Automatic Terminal Information Service (ATIS) dataset demonstrate that the models trained on the expanded datasets improve their F-score for the slot-filling task. This improvement is particularly significant for small datasets. We believe that this method allows for the expansion of a small set of previously annotated user queries into a large training set that is sufficient for correctly constructing a model of intent detection and slot filling. Therefore, our approach can be used to save time and money by reducing the amount of data required to train a natural language understanding model. Its novelty consists in expanding a training set for a deep learning model based on a random mutation of training samples, following a set of heuristic rules that utilise external lexicons and the training data itself.

Więcej o konferencji: https://smc2019.org/.