Jogo dos sete erros: participação na revisão do plano diretor de São Paulo
A prefeitura apresentou uma proposta de modelo híbrido, com ações digitais e presenciais, sendo uma de suas primeiras ações a aplicação de uma enquete
Publicado em 2 de setembro de 2021 às, 10h00.
Última atualização em 2 de setembro de 2021 às, 14h14.
Por Bianca Tavolari, Lais Valieris e Taís Borges
Em junho, o blog trouxe a discussão sobre os desafios da participação social no processo de revisão do Plano Diretor de São Paulo. Diante dos questionamentos da sociedade civil organizada em razão das enormes disparidades de acesso à internet com qualidade suficiente para assegurar a participação em transmissões nas plataformas oficiais, a prefeitura apresentou uma proposta de modelo híbrido de participação, com ações digitais e presenciais, sendo uma de suas primeiras ações a aplicação de uma enquete.
Coletar dados por meio de surveys ou enquetes costuma ser um instrumento útil para a mensuração de impacto em políticas públicas, mas diversos protocolos precisam ser seguidos para que o método seja válido. A forma como a ferramenta tem sido usada na revisão do PDE é bastante questionável do ponto de vista de método.
No início de maio, a prefeitura disponibilizou uma enquete online com cinco questões. No final de julho, a mesma enquete – acrescida de apenas da pergunta “Você está participando desta enquete pela busca ativa nas ruas?” – passou a integrar o que a prefeitura denominou de “busca ativa”. Neste modelo, entrevistadores abordam pessoas nos terminais de ônibus dos 96 distritos da cidade. Tratar esta metodologia como um substituto à participação presencial, ou mesmo como equivalente à participação online ocorrida em 2014, quando o atual plano diretor foi formulado, é altamente problemático.
Em primeiro lugar, há problemas na base de dados dos respondentes. Duas bases de respostas foram misturadas. Se a proposta era diferenciar quem responde voluntariamente e quem responde quando abordado na rua, seria necessário distinguir cada um destes universos.
Em segundo lugar, não há como controlar a amostra de respondentes. Nada impede que uma mesma pessoa responda mais de uma vez pelo site. Tampouco há como impedir que moradores de fora de São Paulo respondam à enquete. Sem controle da amostra, a validade das respostas é completamente questionável.
Em terceiro lugar, não há como saber o bairro dos respondentes. O questionário tem um campo para “distrito” e, além de indicar zonas da cidade como opções, não fica claro se a resposta está atrelada ao distrito de moradia ou, no caso da busca ativa, do local onde a pessoa respondeu à enquete – que pode ou não ser seu bairro de moradia.
Em quarto lugar, as perguntas são mal formuladas. A primeira delas questiona: “se você pudesse escolher, moraria perto de”, com “emprego”, “escola”, “unidade de saúde”, “parque ou praça”, “transporte” ou “outro” como opções de resposta. Pressupõe-se que estes equipamentos não podem estar concentrados e, portanto, seria preciso escolher um só. Outra pergunta trata sobre as prioridades na revisão do plano diretor. Uma das possibilidades de resposta é “instrumentos de política urbana”. A resposta não faz qualquer sentido: é “grego” para a maioria da população.
Em quinto lugar, as respostas não têm relação direta com a revisão. Vamos supor que 50% dos entrevistados respondam que querem morar perto do emprego. Isto significa que devemos manter, por exemplo, a ideia de eixos? Ou que seria necessário adensar em outras áreas? Ou que é necessário endereçar políticas que não estão necessariamente vinculadas ao plano diretor? Como não está claro como e com quais objetivos os questionários serão utilizados na revisão, os problemas de método apontados aqui podem ser ainda mais graves.
Em sexto lugar, a equipe de entrevista não tem conhecimentos técnicos sobre o plano diretor e sua revisão, o que prejudica a qualidade da aplicação do questionário e coloca em xeque a própria concepção de busca ativa.
Em sétimo lugar, o alto número de respostas com os formulários – 10.473 até agora – tem sido utilizado para validar o modelo híbrido, sobretudo por meio da comparação com a revisão de 2014. Mas não há comparabilidade entre os dados, seja pelos problemas metodológicos, seja em razão do contexto distinto da participação digital há sete anos. A quantidade de questionários não torna o processo mais participativo por si só.
Políticas públicas devem ser baseadas em evidências, o que normalmente implica coleta de dados. Mas compilar respostas de uma enquete cuja amostra é questionável, com perguntas mal formuladas e sem dados de contexto está longe de estar no caminho certo.