Parte del problema de tener una exportación tan grande se debe (presumiblemente) a las redundancias en ella. Probablemente hay miles de comandos "INSERTAR" que, cuando se cargan todos a la vez, ocupan una gran cantidad de memoria.
Si tiene exactamente los mismos datos que un CSV, lo que haría sería crear un pequeño script PHP para recorrer el archivo CSV línea por línea y crear una consulta INSERT sql de forma dinámica y luego ejecutarla. Esto debería mantener la huella de memoria muy baja, ya que podría seguir reemplazando los valores de sus variables temporales (correspondientes a los campos) después de cada inserción.
He vinculado a la función que intentaría usar. Se llama fgetcsv. Ese enlace también tiene algunos scripts de muestra que creo que podrían serle útiles y que fueron creados por otros usuarios.
¡Buena suerte!
función PHP fgetcsv para usar para la lectura línea por línea