Таково положение дел. Растущий масштаб любого явления человеческой деятельности приводит к неизбежному накоплению следствий человеческого фактора. Однако, каким образом человеческий фактор мог повлиять на общую достоверность научных исследований? Разве дизайн исследований не должен каким-то статистическим образом нивелировать подобное влияние? Остановимся на итоге отчета о симпозиуме: «Хорошей новостью является то, что наука начинает воспринимать худшие из своих недостатков очень серьезно. Плохой же новостью является то, что никто не готов сделать первый шаг к очистке системы». Высшие представители науки лишь признают появившуюся проблему, о ее решении и вычищении ложной научной литературы пока только заговорили.
Так же, главред The Lancet поднимал тему недостаточно строгих критериев достоверности исследований. Например, в физике элементарных частиц p-value не должно быть выше 3×10—7, когда в биологии p-value достаточно не превышать 0,05. На эту тему в феврале 2014 года в журнале Nature опубликовали статью «Scientific method: Statistical errors», поясняющую, почему «золотой стандарт» статистической достоверности (p <0,05) не так надежен, как полагают многие ученые. Представленное в 1920х годах в Великобритании статистиком Рональдом Фишером, p-значение не предполагалось на роль окончательного теста. Оно лишь предназначалось для неформального определения значительности в старомодном смысле: заслуживают ли результаты исследования второго, более внимательного взгляда. Всего лишь прикидка. Повторюсь, Ричард Хортон в упомянутом отчете тоже предложил повысить стандарт.
Первая ласточка, в феврале 2015, опубликована новость, что журнал BASP (Basic and Applied Social Psychology) запретил публикацию статей, использующих критерий p <0,05, по причине слишком частого