Перейти к основному содержанию
Библиотечно-издательский комплекс СФУ
Toggle navigation
Ресурсы
Библиотечный поиск
Каталог изданий университета
Университетские информационные ресурсы
Российские информационные ресурсы
Мировые информационные ресурсы
Периодические издания
Тематические путеводители
Книгообеспеченность учебного процесса
Приобретение литературы
Читателю
Регистрация читателей
Получение и возврат литературы
Межбиблиотечный абонемент
Тематические путеводители
Обучение работе с ресурсами
Доступная среда библиотеки
Детская развивающая площадка
Подарить книгу библиотеке
Автору
Правила издания рукописей
План выпуска изданий
Размещение публикаций в библиотеке, репозитории, РИНЦ
Проверка
журнала
Служба поддержки публикационной
активности
Учёт публикаций в АИС
«Прометей»
Услуги
Справочник услуг и сервисов БИК
Новая заявка на услугу
Бронирование помещений
Контакты
Адреса и режим работы
Контакты
Вопрос-Ответ
Отправить отзыв
Ещё
О Научной библиотеке
Об Издательстве
Дилерство «САБ ИРБИС»
Красноярский ИРБИС-клуб
Литературный клуб «Высокий берег»
Подкаст «Пища для ума»
Вакансии
Часто задаваемые вопросы
Мобильное приложение
Карта сайта и поиск по сайту
Онлайн-медиа Научной библиотеки
Личный кабинет
Главная
Ресурсы
Библиотечный поиск
Pretrained
Transformers for Text
Ranking: BERT and
Beyond
Andrew Yates
Rodrigo Nogueira
Jimmy Lin
2021 год
Pretrained Transformers for Text Ranking: BERT and Beyond
статья
Полный текст
Страница публикации
Публикация в OpenAlex
Аннотация:
Andrew Yates, Rodrigo Nogueira, Jimmy Lin. Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Tutorials. 2021.
Год издания:
2021
Авторы:
Andrew Yates
,
Rodrigo Nogueira
,
Jimmy Lin
Ключевые слова:
Natural Language Processing Techniques, Topic Modeling, Authorship Attribution and Profiling
Другие ссылки:
aclanthology.org
(PDF)
doi.org
(HTML)
Library Union Catalog of Bavaria, Berlin and Brandenburg (B3Kat Repository)
(PDF)
Library Union Catalog of Bavaria, Berlin and Brandenburg (B3Kat Repository)
(HTML)
MPG.PuRe (Max Planck Society)
(PDF)
MPG.PuRe (Max Planck Society)
(HTML)
arXiv (Cornell University)
(PDF)
arXiv (Cornell University)
(HTML)
Показать дополнительные сведения
DOI:
https://doi.org/10.18653/v1/2021.naacl-tutorials.1
Открытый доступ:
hybrid
Страницы:
1–4