Abstract
We propose a modification of an algorithm introduced by Martínez (1987) for solving nonlinear least-squares problems. Like in the previous algorithm, after the calculation of an approximated Gauss-Newton directiond, we obtain the next iterate on a two-dimensional subspace which includesd. However, we simplify the process of searching the new point, and we define the plane using a scaled gradient direction, instead of the original gradient. We prove that the new algorithm has global convergence properties. We present some numerical experiments.
Zusammenfassung
Es wird eine Modifikation eines Algorithmus von Martínez vorgeschlagen. Wie früher wird zunächst eine Gauß-Newton Richtungd näherungsweise berechnet und dann die nächste Iteration in einem zweidimensionalen Unterraum berechnet, der auchd enthält. In der vorliegenden Arbeit wird der Suchprozeß vereinfacht und zur Definition des Unterraumes wird nun ein skalierter Gradient verwendet. Der neue Algorithmus konvergiert global. Über numerische Experimente wird berichtet.
References
J. E. Dennis and R. B. Schnabel, Numerical Methods for Unconstrained Optimization and Nonlinear Equations, Prentice Hall Series in Comput. Math., Prentice Hall, N. J., 1983.
J. M. Martínez, “An Algorithm for solving Sparse Nonlinear Least-Squares Problems”, Computing39, (1987) pp. 307–325.
J. M. Martínez, “A Family of Quasi-Newton Methods for Nonlinear Equations with Direct Secant Updates of Matrix Factorizations”, SIAM J. Numer. Anal. (1989), to appear.
J. J. Moré, B. S. Garbow and K. E. Hillstrom, “Testing Unconstrained Optimization Software”, ACM TOMS7 (1981) pp. 136–140.
Author information
Authors and Affiliations
Rights and permissions
About this article
Cite this article
Martínez, J.M., Santos, R.F. An algorithm for solving nonlinear least-squares problems with a new curvilinear search. Computing 44, 83–90 (1990). https://doi.org/10.1007/BF02247967
Received:
Issue Date:
DOI: https://doi.org/10.1007/BF02247967