<div dir="ltr"><div><span style="font-size:12.8px">DeÄŸerli liste Ã¼yeleri,</span><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><b>26 Ekim, PerÅŸembe</b> günü <b>16:00</b>'da MSGSÃœ Matematik Bölüm Seminerinde, Sabancı Ãœniversitesinden <b>Ä°lker Birbil</b>, "<span style="font-size:12.8px">Parallel Incremental Optimization Algorithm for Solving Partially Separable Problems in Machine Learning</span>" baÅŸlıklı bir konuÅŸma verecektik. KonuÅŸmanın Ã¶zeti aÅŸağıdadır.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Seminerde görüşmek Ã¼zere,</div><div style="font-size:12.8px"><span style="font-size:12.8px">Özgür Martin</span></div></div><span style="font-size:12.8px"><b><div><span style="font-size:12.8px"><b><br></b></span></div><div><span style="font-size:12.8px"><b><br></b></span></div>Title: </b>Parallel Incremental Optimization Algorithm for Solving Partially Separable Problems in Machine Learning</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px"><b>Abstract:</b> Consider a recommendation problem, where multiple firms are willing to cooperate to improve their rating predictions. However, the firms insists on finding a machine learning approach, which guarantees that their data remain in their own servers. To solve this problem, I will introduce our recently proposed approach HAMSI (Hessian Approximated Multiple Subsets Iteration). HAMSI is a provably convergent, second order incremental algorithm for solving large-scale partially separable optimization problems. The algorithm is based on a local quadratic approximation, and hence, allows incorporating curvature information to speed-up the convergence. HAMSI is inherently parallel and it scales nicely with the number of processors. I will conclude my talk with several implementation details and our numerical results on a set of matrix factorization problems.</span><br></div>