<div dir="ltr"><div><span style="font-size:12.8px">Değerli liste üyeleri,</span><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><b>26 Ekim, Perşembe</b> günü <b>16:00</b>'da MSGSÜ Matematik Bölüm Seminerinde, Sabancı Üniversitesinden <b>İlker Birbil</b>, "<span style="font-size:12.8px">Parallel Incremental Optimization Algorithm for Solving Partially Separable Problems in Machine Learning</span>" başlıklı bir konuşma verecektik. Konuşmanın özeti aşağıdadır.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Seminerde görüşmek üzere,</div><div style="font-size:12.8px"><span style="font-size:12.8px">Özgür Martin</span></div></div><span style="font-size:12.8px"><b><div><span style="font-size:12.8px"><b><br></b></span></div><div><span style="font-size:12.8px"><b><br></b></span></div>Title: </b>Parallel Incremental Optimization Algorithm for Solving Partially Separable Problems in Machine Learning</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px"><b>Abstract:</b> Consider a recommendation problem, where multiple firms are willing to cooperate to improve their rating predictions. However, the firms insists on finding a machine learning approach, which guarantees that their data remain in their own servers. To solve this problem, I will introduce our recently proposed approach HAMSI (Hessian Approximated Multiple Subsets Iteration). HAMSI is a provably convergent, second order incremental algorithm for solving large-scale partially separable optimization problems. The algorithm is based on a local quadratic approximation, and hence, allows incorporating curvature information to speed-up the convergence. HAMSI is inherently parallel and it scales nicely with the number of processors. I will conclude my talk with several implementation details and our numerical results on a set of matrix factorization problems.</span><br></div>