La noción de límite fue crucial para el desarrollo del cálculo en el siglo XVII. Los conceptos de límite y cálculo fueron inicialmente propuestos por Isaac Newton y Gottfried Wilhelm Leibniz para resolver problemas de áreas y pendientes. Su formalización rigurosa llegó en el siglo XIX, gracias a matemáticos como Augustin-Louis Cauchy y Karl Weierstrass, quienes definieron el límite de manera precisa, permitiendo una base sólida para el análisis matemático moderno.
Isaac Newton y Gottfried Leibniz, pioneros del cálculo, fueron de los primeros en utilizar la idea de límites. Aunque sus métodos diferían, ambos emplearon límites para definir conceptos clave como la derivada y la integral, sentando las bases del análisis moderno.
Ej: lim(x → 2) (3x + 4) = 10
Ej: lim(x → 0) 1/x² = +∞
Ej: (Por derecha)lim(x → 1⁺) 1/(x - 1) = +∞
Ej: (Por izquierda) lim(x → 1⁻) 1/(x - 1) = -∞
Ej: lim(x → ∞) (5x + 3)/(2x + 7) = 5/2
La formalización de los límites permitió resolver problemas complejos, como la determinación de áreas y pendientes de curvas. Este avance impulsó la Revolución Científica, con aplicaciones directas en física clásica, ingeniería y otras ciencias, destacando en las leyes del movimiento de Newton y el estudio de la gravedad.
Hoy en día, los límites son fundamentales en diversas disciplinas. En informática, son clave para el análisis y optimización de algoritmos. En física, los límites ayudan a entender fenómenos en teoría de la relatividad y mecánica cuántica. En economía, permiten modelar comportamientos de funciones de costo y demanda, aplicándose a problemas de optimización.