математикам про ноль

Меня не интересует математика, меня интересует ее аксиоматика, которая выводится из более мощной системы-логики.
Все математические аксиомы выводятся из логики.

 

Не секрет, что с математическим нулем существует масса проблем в математике.
При попытке выполнить логические операции с нулем в качестве аргумента функции, возникают проблемы. И эти же проблемы имеют место быть в Булевой алгебре.
Чтобы разобраться с аксиоматическими принципами математического нуля, следует решить проблемы с нулем в двоичной логике, поскольку последняя, являет собой неизбыточный вид логики, и всякая иная логика, включая математическую, является ее производной.
На примере физических воплощений двоичных функций можно наглядно наблюдать в физической системе отсчета, как именно выполняются математические операции. И поскольку физически, существует время, а причинность стоит на оси этого времени всегда ДО следствия,  сами функции, как и время, не могут быть обратимыми. Т.е. физически, на элементах hor, можно делать только сумматоры, но никак не вычитаторы, и для того, чтобы сумматор выполнял функцию вычитания физически, т.е. обратную сложению функцию, приходится менять критерии истинности самой двоичной системы. Т.е. ложь, временно принимать за 1, а 0 за истину.
Кому интересно, как именно это делается:
А-Б=i(iA+B)
, где  A и В  двоичные числа, а  i - операция побитной инверсии.

Это называется применением доп. кодов, но суть их остается в том, чтобы временно изменить критерий истинности для выбранной системы на противоположную. Т.е. изменяется СОДЕРЖАТЕЛЬНАЯ часть чисел.

В математике абстрагируются от какой либо содержательной части чисел, но мы с вами рассматриваем аксиоматику матаппарата, т.е. выводим ее, и значит, опираемся на более общие правила логики.

Вот мы с вами и подошли к пониманию нуля математического. В двоичной логике, это понятие выглядит не как число, а как функция изменения содержательной части бита на противоположную, т.е. иными словами ИНВЕРТОР.

Да, господа математики, ноль это не аргумент, а функция инверсии, и ВСЯКАЯ логическая операция с этим понятием, есть логическая операция изменения функции на противоположную.

Применим понимание нуля в правиле вывода математических функций:

Возьмем правило вывода умножения.

А*Б,

Б показывает, сколько А должно быть сложено с самим собой.

2*4= 2+2+2+2

2*0 сталбыть, должно означать, что 2 должно быть сложено само с собой...нет, не ноль раз...! это ведет к абсурду, в результате которого ноль никогда не получиться, разве что с потолка (именно поэтому это и зааксиоматизировано. Это не выводится из абсурда и понимания нуля как числа, что должно настораживать каждого, кого интересует аксиоматика матаппарата).
Если правило вывода приводит к абсурду, то одно из двух: либо правило вывода неверное, либо неправильно понимаем ноль.

Так вот ноль не число, а функция инверсии, поэтому и в правиле вывода нужно вставлять и применять ноль не как число, а как функцию, изменяющую само правило вывода в части используемой в правиле вывода функции сложения на...обратную, т.е. на вычитание.
Поэтому и получается, что согласно правилу вывода, следует не прибавлять двойку самому к себе, а ВЫЧИТАТЬ!

потому и получается 2*0=2-2. При этом правило вывода остается корректным.

то же самое происходит и с правилом вывода степени N^0=1 (это тоже невыводимая аксиома из матаппарата, если пользоваться правилом вывода, получается такой же бред, как и с умножением)

 НЕ надо помножать N  само на себя ноль раз! Это абсурдно, потому что в корне неправильно понимается ноль. Это так очевидно...
Нужно не умножать N, а делить его самого на себя. Вот отсюда и получается еденица.
ноль стоит после функции умножения, значит происходит инверсия именно этой функции.

И вообще, если у вас при делении на ноль получается неопределенность, то только по той причине, что вы неправильно понимаете понятие бесконечности, может стоит наконец понять его правильно, ведь тогда термин "множество множеств" преданный анафеме, снова поимеет свой смысл и все сопутствующие задачи брадобрея, меров, Рассела, перестанут беспокоить математиков.
Может пора вам признать, что даже теоретически и в абстракции, у бесконечности имеется свой абстрактный предел, а значит бесконечное число существует в матаппарате как число, и значит число Пи не может вычисляться вечно, всему есть предел, ДАЖЕ для абстрактных вычислений.
Может наконец тогда, в компьютере вместо 4-х нулей, появится один, настоящий, может тогда наконец в том же компьютере, операции с нулем будут вычисляться, а не подставляться микрокомандой?
Может хватит уже вам всем заниматься ерундой?