Monter d'un niveau |
Ce graphique trace les liens entre tous les collaborateurs des publications de {} figurant sur cette page.
Chaque lien représente une collaboration sur la même publication. L'épaisseur du lien représente le nombre de collaborations.
Utilisez la molette de la souris ou les gestes de défilement pour zoomer à l'intérieur du graphique.
Vous pouvez cliquer sur les noeuds et les liens pour les mettre en surbrillance et déplacer les noeuds en les glissant.
Enfoncez la touche "Ctrl" ou la touche "⌘" en cliquant sur les noeuds pour ouvrir la liste des publications de cette personne.
Vazquez, D., Bernal, J., Sánchez, F. J., Fernández-Esparrach, G., López, A. M., Romero, A., Drożdżal, M., & Courville, A. (2017). A benchmark for endoluminal scene segmentation of colonoscopy images. Journal of Healthcare Engineering, 2017, 1-9. Disponible
Rohrbach, A., Torabi, A., Rohrbach, M., Tandon, N., Pal, C. J., Larochelle, H., Courville, A., & Schiele, B. (2017). Movie description. International Journal of Computer Vision, 123(1), 94-120. Disponible
Havaei, M., Davy, A., Warde-Farley, D., Biard, A., Courville, A., Bengio, Y., Pal, C. J., Jodoin, P.-M., & Larochelle, H. (2017). Brain tumor segmentation with Deep Neural Networks. Medical Image Analysis, 35, 18-31. Lien externe
Kahou, S. E., Bouthillier, X., Lamblin, P., Gulcehre, C., Michalski, V., Konda, K., Jean, S., Froumenty, P., Dauphin, Y., Boulanger-Lewandowski, N., Ferrari, R. C., Mirza, M., Warde-Farley, D., Courville, A., Vincent, P., Memisevic, R., Pal, C. J., & Bengio, Y. (2016). EmoNets: Multimodal deep learning approaches for emotion recognition in video. Journal on Multimodal User Interfaces, 10(2), 99-111. Lien externe
Nekoei, H., Badrinaaraayanan, A., Courville, A., & Anbil Parthipan, S. C. (juillet 2021). Continuous Coordination As a Realistic Scenario for Lifelong Learning [Communication écrite]. International Conference on Machine Learning (ICML 2021). Lien externe
Krueger, D., Ballas, N., Jastrzebski, S., Arpit, D., Kanwal, M. S., Maharaj, T., Bengio, E., Fischer, A., & Courville, A. (avril 2017). Deep nets don't learn via memorization [Communication écrite]. 5th International Conference on Learning Representations (ICLR 2017), Toulon, France (4 pages). Lien externe
Krueger, D., Maharaj, T., Kramar, J., Pezeshki, M., Ballas, N., Ke, N. R., Goyal, A., Bengio, Y., Courville, A., & Pal, C. J. (avril 2017). Zoneout: Regularizing rNNs by randomly preserving hidden activations [Communication écrite]. 5th International Conference on Learning Representations (ICLR 2017), Toulon, France (11 pages). Lien externe
Subramanian, S., Rajeswar, S., Sordoni, A., Trischler, A., Courville, A., & Pal, C. J. (décembre 2018). Towards text generation with adversarially learned neural outlines [Communication écrite]. 32nd Conference on Neural Information Processing Systems (NIPS 2018), Montréal, Canada (13 pages). Lien externe
Maharaj, T., Ballas, N., Rohrbach, A., Courville, A., & Pal, C. J. (juillet 2016). A dataset and exploration of models for understanding video data through fill-in-the-blank question-answering [Communication écrite]. 30th IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2017), Honolulu, HI. Lien externe
De Vries, H., Strub, F., Anbil Parthipan, S. C., Pietquin, O., Larochelle, H., & Courville, A. (juillet 2017). GuessWhat?! Visual Object Discovery through Multi-modal Dialogue [Communication écrite]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2017), Honolulu, HI, USA. Lien externe
Ballas, N., Yao, L., Pal, C. J., & Courville, A. (juin 2016). Delving Deeper into Convolution Networks for Learning Video Representation [Communication écrite]. 10th IEEE Computer Society Workshop on Perceptual Organization in Computer Vision: The Role of Feedback in Recognition and Motion Perception (CVPR 2016), Las Vegas, Nevada (2 pages). Lien externe
Ballas, N., Yao, L., Pal, C. J., & Courville, A. (mai 2016). Delving deeper into convolutional networks for learning video representations [Communication écrite]. 4th International Conference on Learning Representations (ICLR 2016), San Juan, Puerto Rico (11 pages). Lien externe
Yao, L., Torabi, A., Cho, K., Ballas, N., Pal, C. J., Larochelle, H., & Courville, A. (décembre 2015). Describing videos by exploiting temporal structure [Communication écrite]. 15th IEEE International Conference on Computer Vision (ICCV 2015), Santiago, Chile. Lien externe
Serban, I. V., García-Durán, A., Gulcehre, C., Ahn, S., Anbil Parthipan, S. C., Courville, A., & Bengio, Y. (août 2016). Generating Factoid Questions with Recurrent Neural Networks: The 30M Factoid Question-Answer Corpus [Communication écrite]. 54th annual meeting of the Association for Computational Linguistics, Berlin, Germany. Lien externe
Kahou, S. E., Pal, C. J., Bouthillier, X., Froumenty, P., Gulcehre, C., Memisevic, R., Vincent, P., Courville, A., Bengio, Y., Ferrari, R. C., Mirza, M., Jean, S., Carrier, P.-L., Dauphin, Y., Boulanger-Lewandowski, N., Aggarwal, A., Zumer, J., Lamblin, P., Raymond, J.-P., ... Wu, Z. (décembre 2013). Combining modality specific deep neural networks for emotion recognition in video [Communication écrite]. 15th ACM International Conference on Multimodal Interaction (ICMI 2013), Sydney, NSW, Australia. Lien externe