6 citations to https://www.mathnet.ru/rus/eps1
  1. А. В. Булинский, “О выборе значимых признаков, основанном на теории информации”, Теория вероятн. и ее примен., 68:3 (2023), 483–508  mathnet  crossref  scopus; A. V. Bulinski, “On relevant features selection based on information theory”, Theory Probab. Appl., 68:3 (2023), 392–410  mathnet  crossref
  2. Mehmet Siddik Cadirci, Dafydd Evans, Nikolai Leonenko, Vitalii Makogin, “Entropy-based test for generalised Gaussian distributions”, Computational Statistics & Data Analysis, 173 (2022), 107502  crossref
  3. Alexander Bulinski, Denis Dimitrov, “Statistical estimation of the Kullback–Leibler divergence”, Mathematics, 9:5 (2021), 544–36  mathnet  crossref  isi  scopus
  4. “Тезисы докладов, представленных на Четвертой международной конференции по стохастическим методам”, Теория вероятн. и ее примен., 65:1 (2020), 151–210  mathnet  crossref  isi; “Abstracts of talks given at the 4th International Conference on Stochastic Methods”, Theory Probab. Appl., 65:1 (2020), 121–172  mathnet  crossref
  5. Josu Ircio, Aizea Lojo, Usue Mori, Jose A. Lozano, “Mutual information based feature subset selection in multivariate time series classification”, Pattern Recognition, 108 (2020), 107525  crossref
  6. Sergio Verdú, “Empirical Estimation of Information Measures: A Literature Guide”, Entropy, 21:8 (2019), 720  crossref