Learning affordances in object-centric generative models
Given visual observations of a reaching task together with a stick-like tool, we propose a novel approach that learns to exploit task-relevant object affordances by combining generative modelling with a task-based performance predictor. The embedding learned by the generative model captures the fact...
প্রধান লেখক: | Wu, Y, Kasewa, S, Groth, O, Salter, S, Sun, L, Parker Jones, O, Posner, H |
---|---|
বিন্যাস: | Conference item |
ভাষা: | English |
প্রকাশিত: |
International Conference on Machine Learning
2020
|
অনুরূপ উপাদানগুলি
-
Reconstruction bottlenecks in object-centric generative models
অনুযায়ী: Engelcke, M, অন্যান্য
প্রকাশিত: (2020) -
GENESIS: generative scene inference and sampling of object-centric latent representations
অনুযায়ী: Engelcke, M, অন্যান্য
প্রকাশিত: (2020) -
APEX: Unsupervised, object-centric scene segmentation and tracking for robot manipulation
অনুযায়ী: Wu, Y, অন্যান্য
প্রকাশিত: (2021) -
Object-centric generative models for robot perception and action
অনুযায়ী: Wu, Y
প্রকাশিত: (2023) -
DreamUp3D: object-centric generative models for single-view 3D scene understanding and real-to-sim transfer
অনুযায়ী: Wu, Y, অন্যান্য
প্রকাশিত: (2024)