Language-aware vision transformer for referring segmentation
Referring segmentation is a fundamental vision-language task that aims to segment out an object from an image or video in accordance with a natural language description. One of the key challenges behind this task is leveraging the referring expression for highlighting relevant positions in the image...
Автори: | Yang, Z, Wang, J, Ye, X, Tang, Y, Chen, K, Zhao, H, Torr, PHS |
---|---|
Формат: | Journal article |
Мова: | English |
Опубліковано: |
IEEE
2024
|
Схожі ресурси
-
LAVT: Language-Aware Vision Transformer for referring image segmentation
за авторством: Yang, Z, та інші
Опубліковано: (2022) -
Semantics-aware dynamic localization and refinement for referring image segmentation
за авторством: Yang, Z, та інші
Опубліковано: (2023) -
Vision transformers: from semantic segmentation to dense prediction
за авторством: Zhang, L, та інші
Опубліковано: (2024) -
Hierarchical interaction network for video object segmentation from referring expressions
за авторством: Yang, Z, та інші
Опубліковано: (2021) -
Behind every domain there is a shift: adapting distortion-aware vision transformers for panoramic semantic segmentation
за авторством: Zhang, J, та інші
Опубліковано: (2024)