
Кстати, об обозначениях
Разнообразия ради, данный недоурок целиком адресован технарям и любопытным школьникам, и касается он обозначений, которыми мы пользуемся.
Почему мы обозначаем интеграл так, как обозначаем,
\,\mathrm%20dx)
? Как объясняли в школе, знак интеграла (провербиальный крючок для унитаза) есть стилизованная буква S, сокращающая латинское слово Summa. Логично: для суммирования мы пользуемся значком

, который есть просто греческая буква "Сигма",
сокращающая то же слово транслитерирующая латинскую букву.
Указание на саму функцию тоже как-то должно присутствовать. Но зачем вот этот хвост,

? Если приглядеться повнимательней, то видно, что

и

набраны разными шрифтами. Зачем все эти танцы с бубнами? Почему нельзя антипроизводную просто обозначить как-нибудь вроде

, подобно тому, как производную мы обозначаем просто

?
Ну, начнём с того, что и обозначение для производной небезупречно. Физики это понимают хорошо: если

есть какое-нибудь расстояние (скажем, измеряемое в метрах), а аргументом является время, то смысл производной зависит от того, в каких единицах мы этот самый икс меряем: в секундах или часах? Хорошо бы в обозначении для производной как-то явно указывать, по отношению к чему она вычисляется. Именно поэтому физик чаще будет пользоваться обозначением

для производной, а если нас интересует её конкретное значение в точке x=a, то получается уж совсем громоздко,
)
.
Это только сильнее подогревает интерес к загадочной букве

. Что же она, чёрт побери, здесь делает, даже дважды (в числителе и в знаменателе дроби)? Лейбниц (чьей проницательности мы в этом месте обязаны очень удачным выбором обозначений) выглядел крайне неубедительно, говоря о бесконечно-малых приращениях (см.
ссылку на пиесу в последних строках предыдущего поста).
А что мы сегодня можем по этому поводу сказать, не усугубляясь в гиперреальные числа Робинзона, а по-пролетарски, по-простому?
Придётся вернуться к
тому, как приближаются (аппроксимируются) нелинейные функции "линейными". Мы говорим о том, что нелинейная функция
)
в окрестности точки a из области определения приближается аффинной функцией вида
=f(a)+c(x-a),\%20c=f^\prime(a))
. Но выражение в правой части есть
естественным образом функция не одного аргумента

, а двух: один - это та точка

, в которой мы приближаем функцию

, а другой - это "маленькое смещение"

от точки

до точки

. Зависимость от

- она какая есть, такая есть, а вот зависимость от

- линейная (без кавычек), и дифференциалом функции в точке

мы назвали именно линейную функцию
v)
, в которой

- "основной" аргумент, а

- всего лишь параметр.
Как-то надо отделить котлеты от мух. Это и сделал Лейбниц, романтик и филолог, хоть и не подозревал он, как его оправдают в двадцатом веке. То, что он называл "бесконечно малыми приращениями независимой переменной", мы сегодня называем касательными векторами. То, что он называл "дифференциалом функции", мы сегодня называем линейным отображением, аппроксимирующим функцию в данной точке. Если независимая переменная одномерна, то линейное отображение однозначно задаётся одним числом, которое в точности есть наклон "линейной" функции, т.е., отношением
)
. Итак, формула для производной оправдана, если считать, что

есть функция двух аргументов, от одного из которых она на самом деле не завист, а по другому является тождественным линейным отображением.
После этого никаких проблем нет с тем, почему выражение
\,\mathrm%20dx)
означает то, что означает. Если мы заменяем нелинейную функцию
набором аппроксимирующих линейных функций
v,\%20%20v=x-x_i)
и суммируем их приращения, то ровно то, что хотели, и получаем. Если следить за тем, что происходит с интегральной суммой, когда индекс

возрастает до

, то сумма прирастёт как раз выражением
v_i,\%20v_i=x_{i+1}-x_i)
.
Это всё отнюдь не бессмысленная схоластика: если в интеграле
\,\mathrm%20dx)
мы делаем "замену переменных"
)
, то надо не просто подставить выражение
)
вместо каждой буквы икс в выражении функции
)
. Надо ещё и не забыть подставить
)
вместо

в сочетании

. И превратить потом это дело,
)
, в
\mathrm%20dz)
, где штрих уже означает производную по

.
Тому, кому всё сказанное кажется схоластикой: в определённой мере, так оно и есть, если мы разговариваем о функциях одной переменной. В нескольких переменных вся схоластичность исчезает, и выражения
\,\mathrm%20dx+%20g(x,y)\,\mathrm%20dy)
, называемые "
дифференциальными формами", начинают жить своей отдельной жизнью, очень яркой (кто слышал о теоремах Грина, Стокса и Гаусса-Остроградского, те заценят). Тем же, у кого полёт в нескольких измерениях вызывает головокружение, - подумайте о тех преимуществах, которые даёт пользование интегралом Силтьеса
\,\mathrm%20dg(x))
, который определяется, как предел интегральных сумм вида
(g(x_{i+1})-g(x_i)))
, где

- разбиение отрезка

на маленькие отрезки

. Поучительное упражнение - угадайте, как выглядит формула замены переменных в интеграле Стилтьеса. Но это только после того, как вы догадаетесь, чему равен этот интеграл в двух крайних случаях: (а) когда функция

везде дифференцируема, и (б) когда функция
)
кусочно-постоянна, и точки разрыва не совпадают с точками разбиения.
Мораль: интегрируем мы на самом деле не функцию, а её
дифференциал =f^\prime(x)v)
. Вот и весь сказ. Триста лет понадобилось, чтоб разобраться в этих хитросплетениях, но худо-бедно справились.