日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

  A scalable trust-region algorithm with application to mixed-norm regression

Kim, D., Sra, S., & Dhillon, I. (2010). A scalable trust-region algorithm with application to mixed-norm regression. In J., Fürnkranz, & T., Joachims (Eds.), 27th International Conference on Machine Learning (ICML 2010) (pp. 519-526). Madison, WI, USA: Omnipress.

Item is

基本情報

表示: 非表示:
資料種別: 会議論文

ファイル

表示: ファイル
非表示: ファイル
:
ICML2010-Kim_6519[0].pdf (全文テキスト(全般)), 333KB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-0002-81D4-C
ファイル名:
ICML2010-Kim_6519[0].pdf
説明:
-
OA-Status:
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
-
著作権情報:
-
CCライセンス:
-

作成者

表示:
非表示:
 作成者:
Kim, D, 著者
Sra, S1, 2, 著者           
Dhillon, I, 著者
所属:
1Department Empirical Inference, Max Planck Institute for Biological Cybernetics, Max Planck Society, ou_1497795              
2Max Planck Institute for Biological Cybernetics, Max Planck Society, Spemannstrasse 38, 72076 Tübingen, DE, ou_1497794              

内容説明

表示:
非表示:
キーワード: -
 要旨: We present a new algorithm for minimizing a convex loss-function subject to regularization. Our framework applies to numerous problems in machine learning and statistics; notably, for sparsity-promoting regularizers such as ℓ1 or ℓ1, ∞ norms, it enables efficient computation of sparse solutions. Our approach is based on the trust-region framework with nonsmooth objectives, which allows us to build on known results to provide convergence analysis. We avoid the computational overheads associated with the conventional Hessian approximation used by trust-region methods by instead using a simple separable quadratic approximation. This approximation also enables use of proximity operators for tackling nonsmooth regularizers. We illustrate the versatility of our resulting algorithm by specializing it to three mixed-norm regression problems: group lasso [36], group logistic regression [21], and multi-task lasso [19]. We experiment with both synthetic and real-world large-scale data—our method is seen to be competitive, robust, and scalable.

資料詳細

表示:
非表示:
言語:
 日付: 2010-06
 出版の状態: 出版
 ページ: -
 出版情報: -
 目次: -
 査読: -
 識別子(DOI, ISBNなど): BibTex参照ID: 6519
 学位: -

関連イベント

表示:
非表示:
イベント名: 27th International Conference on Machine Learning (ICML 2010)
開催地: Haifa, Israel
開始日・終了日: 2010-06-21 - 2010-06-24

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: 27th International Conference on Machine Learning (ICML 2010)
種別: 会議論文集
 著者・編者:
Fürnkranz, J, 編集者
Joachims, T, 編集者
所属:
-
出版社, 出版地: Madison, WI, USA : Omnipress
ページ: - 巻号: - 通巻号: - 開始・終了ページ: 519 - 526 識別子(ISBN, ISSN, DOIなど): ISBN: 978-1-605-58907-7