Дык пробовали - выпилили в итоге. Ибо результат очень кривой. Хорошо оттюненый алгоритм для одной местности легко может давать кривые результаты для другой.
В малой скорости добавления тоже есть свои плюсы. Во первых инструменты развиваются одновременно с ростом объёма данных. После того импорта у нас перестали работать конвертеры (выгрузки в навигаторы и т.п.).
Во вторых скорость роста данных не должна сильно опережать скорость их актуализации. Вы рассматриваете с точки зрения одного маппера. А у нас тут социальный проект, где важную роль играет сообщество. Грубо говоря: качество данных = плотность мапперов/плотность данных. Данные со временем становятся неактуальными. Каково бы ни было изначальное качество данных (а в автораспознавалках оно изначально не очень высокое), без поддержки мапперов оно деградирует. Резко увеличивая объём данных, не увеличивая число тех, кто будет заниматься их актуализацией вы тем самым резко снижаете качество. А низкое качество имеет отрицательную мотивацию (никому не интересно разгребать чужие импорты), тем самым ухудшается рост числа мапперов.
Потом, улучшите вы алгоритм распознавания, теперь он делает на 50% меньше ошибок, а данные вы уже залили, что делать будете? Выпиливать всё (даже то, что уже другие поправили) и заливать по новой? Такие данные намного полезнее в виде отдельной базы а не залитой в OSM. Тогда её можно использовать и обновлять без значительных проблем.